-
Vektorterek és a lineáris algebra alapjai: Vektortér és duáltere, belső szorzatos terek, ortogonalitás, Gram-mátrix, mátrixok tenzorszorzata.
-
Spektrálkalkulus és SVD: Szimmetrikus mátrixok spektráltétele, szingulárisérték-felbontás (SVD), Moore–Penrose-féle pszeudoinverz, alacsony rangú közelítések, alkalmazások a gépi tanulásban (pl. PCA).
-
Hilbert-terek: Gram–Schmidt-ortogonalizáció, absztrakt Fourier-sorok, legjobb közelítés Hilbert-terekben, ortogonális felbontás.
-
Reprodukáló magterű Hilbert-terek (RKHS) alapjai: Riesz-féle reprezentációs tétel, reprodukáló magterű Hilbert-terek, Moore–Aronszajn-tétel.
-
Kernel módszerek matematikai alapjai: Mercer-tétel, kernel trick, reprezentációs tétel (Representer theorem), alkalmazások kernel-alapú tanulóalgoritmusokban.
-
Normált terek: Normált terek, normák ekvivalenciája véges dimenzióban, operátornorma példákkal.
-
Metrikus terek: Metrikus terek fogalma, szeparabilitás, teljesség, kontrakciók, Banach-féle fixponttétel, kompaktság metrikus terekben.
-
Mértékelméleti és valószínűségi alapok: Borel-szigmaalgebra, standard Borel-terek, Borel-izomorfizmus-tétel. Távolságok valószínűségi eloszlások között: teljes variációs távolság, Kantorovich–Rubinstein-távolság, optimális transzport alapjai, Wasserstein-terek.
-
Approximációelmélet: Polinomiális és Fourier-közelítés, Stone–Weierstrass-tétel, Kolmogorov–Arnold-tétel, univerzális approximációs tétel (sekély neurális hálók).
-
Differenciálhatóság normált terekben: láncszabály, magasabb rendű deriváltak, Taylor-formula (infinitézimális alak), mátrixfüggvények deriválása, példák (pl. egyszerű feedforward háló transzferfüggvénye).
-
Konvex analízis és gradiens-alapú optimalizálás: Konvex halmazok és függvények, gradiensmódszer, konjugált gradiens és skálázott konjugált gradiens, Newton-módszer.
-
Feltételes szélsőérték és konvex optimalizálás: Lagrange-multiplikátorok módszere, KKT-feltételek, dualitás, LASSO regresszió.
-
Sztochasztikus optimalizálás: Szimulált hűtés, népszerű gépi tanulási optimalizálók elvei (SGD, SGLD, ADAM, SAGA).
-
Variációs inferencia, variációs Bayes-módszerek, evidence lower bound (ELBO).
-
Vector spaces and foundations of linear algebra: Vector spaces and their duals, inner product spaces, orthogonality, Gram matrix, tensor product of matrices.
-
Spectral calculus and SVD: Spectral theorem for symmetric matrices, singular value decomposition (SVD), Moore–Penrose pseudoinverse, low-rank approximations, applications in machine learning (e.g. PCA).
-
Hilbert spaces: Gram–Schmidt orthogonalization, abstract Fourier series, best approximation in Hilbert spaces, orthogonal decompositions.
-
Foundations of reproducing kernel Hilbert spaces (RKHS): Riesz representation theorem, reproducing kernel Hilbert spaces, Moore–Aronszajn theorem.
-
Mathematical foundations of kernel methods: Mercer’s theorem, kernel trick, representer theorem, applications in kernel-based learning algorithms.
-
Normed spaces: Normed spaces, equivalence of norms in finite-dimensional spaces, operator norms with examples.
-
Metric spaces: Definition of metric spaces, separability, completeness, contractions, Banach fixed point theorem, compactness in metric spaces.
-
Measure-theoretic and probabilistic foundations: Borel sigma-algebra, standard Borel spaces, Borel isomorphism theorem. Distances between probability distributions: total variation distance, Kantorovich–Rubinstein distance, basics of optimal transport, Wasserstein spaces.
-
Approximation theory: Polynomial and Fourier approximation, Stone–Weierstrass theorem, Kolmogorov–Arnold theorem, universal approximation theorem (shallow neural networks).
-
Differentiability in normed spaces: Chain rule, higher-order derivatives, Taylor formula (infinitesimal form), differentiation of matrix-valued functions, examples (e.g. transfer function of a simple feedforward network).
-
Convex analysis and gradient-based optimization: Convex sets and convex functions, gradient descent, conjugate gradient and scaled conjugate gradient methods, Newton’s method.
-
Constrained extrema and convex optimization: Method of Lagrange multipliers, KKT conditions, duality, LASSO regression.
-
Stochastic optimization: Simulated annealing, principles of popular optimization algorithms in machine learning (SGD, SGLD, ADAM, SAGA).
-
Variational inference: Variational Bayesian methods, evidence lower bound (ELBO).
|