Vectoren: Afstand, hoek, inproduct en uitproduct

Theorie Toepassingen

We bespreken een aantal toepassingen van het inproduct en orthogonale projectie in de context van statistiek en neurale signalen. Hierbij is het handig om eerst nog eens naar de notatie van een vector als kolomvector te kijken. Dit was een arbitraire keuze en rijvectoren zullen ook in deze conventie belangrijk zijn. Daarom hebben we een notatie voor transpositie of spiegeling nodig, om van een kolomvector een rijvector te maken en vice versa. We noteren dit met het symbool \(\top\) als superscript

Getransponeerde vector Als \(\vec{x}=\cv{x_1\\x_2\\ \vdots \\ x_n}\) dan is \(\vec{x}^{\top}=(x_1, x_2, \ldots, x_n)\) de getransponeerde vector, en omgekeerd \((\vec{x}^{\top})^{\top}=\vec{x}\).

Deze notatie staat dicht bij het begrip matrix met één kolom of één rij. Als \(\vec{x}=\cv{x_1\\ x_2 \\ \vdots \\ x_n}\) beschouwd wordt als matrix met één kolom, dan is \(\vec{x}^{\top}=(x_1\;\;x_2\;\;\ldots\;\; x_n)\) een matrix met één rij en is het inproduct van de vectoren als een matrixproduct te beschouwen: \[\vec{x}\boldsymbol{\cdot} \vec{y} = \vec{x}^{\top}\!\!\cdot\vec{y}\]

Andere veelgebruikte notaties voor de getransponeerde vector \(\vec{x}^{\top}\) zijn \(\vec{x}^t\) en \(\vec{x}'\).

Gemiddelde, variantie, covariantie, correlatie Stel dat je een serie metingen \((\eta_1, \eta_2,\cdots, \eta_n)\) hebt, dan kun je het als een kolomvector \(\vec{\eta}\) beschrijven via \(\vec{\eta}=(\eta_1, \eta_2,\cdots, \eta_n)^{\top}\). Het gemiddelde \(\mu\) is gedefinieerd als \[\mu=\frac{1}{n}\sum_{i=1}^n \eta_i\] Dit kunnen we ook schrijven als inproduct van \(\vec{\eta}\) met de vector \(\frac{1}{n}\,\vec{1}_n\), waarbij \(\vec{1}_n\) een vector is met alle \(n\) componenten gelijk aan \(1\). Dus: \[\mu=\vec{\eta}\boldsymbol{\cdot} (\frac{1}{n}\,\vec{1}_n)=\frac{1}{n}\,\vec{\eta}\boldsymbol{\cdot} \vec{1}_n\]

De variantie \(s^2\) is dan te schrijven als \[s^2=\frac{1}{n-1}\,\left(\vec{\eta}-\mu\vec{1}_n\right)\boldsymbol{\cdot} \left(\vec{\eta}-\mu\vec{1}_n\right)=\frac{1}{n-1}\,\lVert\vec{\eta}-\mu\vec{1}_n\rVert^2\] In iets lossere notatie schrijven we ook wel \[s^2=\frac{1}{n-1}\,\left(\vec{\eta}-\mu\right)\boldsymbol{\cdot} \left(\vec{\eta}-\mu\right)=\frac{1}{n-1}\,\lVert\vec{\eta}-\mu\rVert^2\] en moet de goede verstaander het getal \(\mu\) in de gegeven formule als een vector zien met elke component gelijk aan dat getal.

De covariantie \(\text{Cov}(\vec{x},\vec{y})\) tussen twee datasets \(\vec{x}\) en \(\vec{y}\) van gelijke lengte \(n\) en met gemiddelden gelijk aan nul is gelijk aan \[\text{Cov}(\vec{x},\vec{y})=\frac{1}{n-1}\vec{x}\boldsymbol{\cdot}\vec{y}\]

De correlatie \(\text{Cor}(\vec{x},\vec{y})\) tussen twee datasets \(\vec{x}\) en \(\vec{y}\) van gelijke lengte \(n\) en met gemiddelden gelijk aan nul is gelijk aan \[\text{Cor}(\vec{x},\vec{y})=\frac{\vec{x}\boldsymbol{\cdot}\vec{y}}{\lVert\vec{x}\rVert\cdot\lVert\vec{y}\rVert}\] De Cauchy-Schwarz ongelijkheid betekent dat de correlatie alleen maar waarden aan kan nemen tussen \(-1\) en \(1\).

Kwadratisch integreerbare reële functies Beschouw de verzameling van reële functies die kwadratisch integreerbaar zijn op een zeker domein, zeg \([-1,1]\), dat wil zeggen, reële functies waarvoor \(\int_{-1}^1f(x)^2\,dx\) bestaat en eindig is. Op deze verzameling van functies kunnen we een inproduct definiëren als \[f\boldsymbol{\cdot}g = \int_{-1}^1 f(x)\cdot g(x)\,dx\]

Lineaire benadering van functies Voor het gegeven inproduct geldt dat de constante functie \(x\mapsto 1\) en de functie \(x\mapsto x\) op het interval onderling loodrecht zijn omdat \(\int_{-1}{1}x\,dx = 0\). Een gegeven functie \(f\) kunnen we projecteren op het opspansel van deze twee functies. Dit betekent dat we dan de functie op de best mogelijke manier beschrijven als lineaire functie. Neem als voorbeeld \(f(x)=e^x\). Uit \[\begin{aligned}e^x\boldsymbol{\cdot}1 &= \int_{-1}^1 e^x\,dx = \left[e^x\right]_{-1}^{1} = e-e^{-1}\\ \\ e^x\boldsymbol{\cdot}x &= \int_{-1}^1 xe^x\,dx = \left[x\,e^x-e^x\right]_{-1}^{1} = 2e^{-1}\\ \\ 1\boldsymbol{\cdot}1 &= \int_{-1}^1 1\,dx = 2\\ \\ x\boldsymbol{\cdot}x &= \int_{-1}^1 x^2\,dx = \left[\frac{1}{3}x^3\right]_{-1}^{1} = \frac{2}{3}\end{aligned}\] volgt dat de projectie gegeven wordt door \[\left(\frac{e^x\boldsymbol{\cdot}1}{1\boldsymbol{\cdot}1}\right) 1 + \left(\frac{e^x\boldsymbol{\cdot}x}{x\boldsymbol{\cdot}x}\right) x = \frac{e-e^{-1}}{2}+\frac{2e^{-1}}{\frac{2}{3}}\,x=\frac{e-e^{-1}}{2}+3e^{-1}x \approx 1.18+1.10\,x\]

Fourierreeks Beschouw de verzameling van periodieke reële functies op \([-\pi,\pi]\). Op deze verzameling van functies kunnen we een inproduct definiëren as \[f\boldsymbol{\cdot}g = \frac{1}{\pi}\int_{-\pi}^{\pi} f(t)\cdot g(t)\,dt\] De functies \(1\), \(\cos(t), \cos(2t), \sin(t), \sin(2t), \ldots\) zijn orthogonaal, de goniometrische functies hebben norm 1, en het inproduct \(1\boldsymbol{\cdot}1\) is gelijk aan \(2\), oftewel de constante functie \(1\) heeft norm \(\sqrt{2}\). Een periodieke functie \(f\) kan door loodrechte projectie benaderd worden; bijvoorbeeld: \[t \approx 2\sin(t)-\sin(2t)\]

Als \(f(t)=t\) op het interval \([-\pi,\pi]\), dan geldt: \[\begin{aligned} f\boldsymbol{\cdot} 1 &= \frac{1}{\pi}\int_{-\pi}^{\pi} t\,dt = 0 \quad\blue{\text{ (oneven integrand)}}\\ \\ f\boldsymbol{\cdot} \cos(t) &= \frac{1}{\pi}\int_{-\pi}^{\pi} t\cos(t)\,dt = 0 \quad\blue{\text{ (oneven integrand)}}\\ \\ f\boldsymbol{\cdot} \cos(2t) &= \frac{1}{\pi}\int_{-\pi}^{\pi} t\cos(2t)\,dt = 0 \quad\blue{\text{ (oneven integrand)}}\\ \\ f\boldsymbol{\cdot}\sin(t) &= \frac{1}{\pi}\int_{-\pi}^{\pi} t\sin(t)\,dt = \frac{1}{\pi}\left[-t\cos(t)+\sin(t)\right]_{-\pi}^{\pi}=\frac{1}{\pi}\cdot 2\pi = 2\\ \\ f\boldsymbol{\cdot}\sin(2t) &= \frac{1}{\pi}\int_{-\pi}^{\pi} t\sin(2t)\,dt = \frac{1}{\pi}\left[-\frac{1}{2}t\cos(2t)+\frac{1}{4}\sin(2t)\right]_{-\pi}^{\pi}=\frac{1}{\pi}\cdot (\pi)= -1 \end{aligned} \] Dus: \[\begin{aligned}f(t)= t & \approx\frac{\bigl(f\boldsymbol{\cdot} 1\bigr)}{2} 1+ \bigl(f\boldsymbol{\cdot} \cos(t)\bigr) \cos(t)+\bigl(f\boldsymbol{\cdot} \sin(t)\bigr) \sin(t)\\ &\quad{}+\bigl(f\boldsymbol{\cdot} \cos(2t)\bigr) \cos(2t)+\bigl(f\boldsymbol{\cdot} \sin(2t)\bigr) \sin(2t)\\ \\ &= 2\sin(t)-\sin(2t)\end{aligned}\]

Sensitiviteit van lichtgevoelige cellen Het spectrum van een lichtbron kan beschreven worden als een vector \(\vec{l}=(l_1, l_2,\cdots, l_n)^{\top}\); denk hierbij aan een lichtbron waarvan de intensiteit van \(n\) vast gekozen lichtfrequenties is bepaald. Net zo kunnen we het absorptiespectrum van een kegelvormige cel van een specifiek type in de retina beschrijven met een vector \(\vec{s}=(s_1, s_2,\cdots, s_n)^{\top}\); bijvoorbeeld, een kegel van type \(S\) met de waarden die een maximum aannemen bij een index \(k\) die correspondeert met een golflengte van \(440\,\text{nm}\). De respons \(R\) van de lichtgevoelige cel op een willekeurige lichtbron \(\vec{l}\) kan dan berekend worden als het inproduct van \(\vec{s}\) en \(\vec{l}\): \[R=\vec{s}\boldsymbol{\cdot}\vec{l}=\vec{s}^{\top}\!\!\cdot \vec{l}=\sum_{i=1}^ns_il_i\]

Regressie Ook regressie volgens de kleinste kwadratenmethode is in vectoralgebra te bevatten. Stel dat je een serie metingen \((\eta_1, \eta_2,\cdots, \eta_n)\) op tijdstippen \((t_1, t_2,\cdots, t_n)\) hebt die je als een kolomvector \(\vec{\eta}\) beschrijft via \(\vec{\eta}=(\eta_1, \eta_2,\cdots, \eta_n)^{\top}\!\!\). Ook de tijdstippen van bemonstering kunnen we ook als een vector beschrijven, zeg \(\vec{t}=(t_1, t_2,\cdots, t_n)^{\top}\!\!\). Bij een lineair regressiemodel \(y=a\cdot t + b\), dat wil zeggen een rechte lijn benadering, zoeken we waarden voor \(a\) en \(b\) zodanig dat \(\lVert a\cdot\vec{t}+ b\cdot\vec{1}_n - \vec{\eta}\rVert^2\) minimaal is. Dit is in feite niets ander dan de orthogonale projectie van \(\vec{\eta}\) op het 2-dimensionale opspansel van de vectoren \(\vec{t}\) en \(\vec{1}_n\) opsporen en deze als lineaire combinatie van \(\vec{t}\) en \(\vec{1}_n\) op te schrijven.

In het nog eenvoudigere model \(y=a\cdot t\) gaat het om de orthogonale projectie van \(\vec{\eta}\) op \(\vec{t}\) en is de gezochte parameterwaarde \(a\) te berekenen als \[a=\frac{\vec{\eta}\boldsymbol{\cdot}\vec{t}}{\vec{t}\boldsymbol{\cdot}\vec{t}}\]

Voorbeeld Laten we een concreet voorbeeld van de kleinste kwadratenmethode geven. We bekijken de gegevensverzameling \(\{(1,2), (2,2), (3, 4)\}\) en willen een rechte lijn benadering uitrekenen. We zoeken dus waarden \(a\) en \(b\) zodanig dat \(\lVert a\cdot\vec{t}+ b\cdot\vec{1}_3 - \vec{\eta}\rVert^2\) minimaal is, waarbij \(\vec{\eta} = \cv{2\\2\\4}\), \(\vec{t}=\cv{1\\2\\3}\) en \(\vec{1}_3=\cv{1\\1\\1}\).

We moeten dus eerst de orthogonale projectie bereken van de vector \(\vec{\eta}\) op het opspansel van \(\vec{t}\) en \(\vec{1}_3\). Dit is in formules eenvoudig als we een tweetal opspannende vectoren \(\vec{u}\) en \(\vec{v}\) hebben die orthogonaal zijn want dan geldt dat de projectievector gelijk is aan \(\dfrac{\vec{\eta}\mathbf{\cdot}\vec{u}}{\vec{u}\mathbf{\cdot}\vec{u}}\cdot\vec{u}+\dfrac{\vec{\eta}\mathbf{\cdot}\vec{v}}{\vec{v}\mathbf{\cdot}\vec{v}}\cdot\vec{v}\).

We kiezen \(\vec{u}=\vec{1}_3=\cv{1\\1\\1}\). De loodrechte projectie van \(\vec{t}\) op de drager van deze vector is gelijk aan \[\frac{\vec{t}\mathbf{\cdot}\vec{u}}{\vec{u}\mathbf{\cdot}\vec{u}}\cdot\vec{u}=\frac{\cv{1\\2\\3}\mathbf{\cdot}\cv{1\\1\\1}}{\cv{1\\1\\1}\mathbf{\cdot}\cv{1\\1\\1}}\cdot\cv{1\\1\\1}=2\cdot\cv{1\\1\\1}=\cv{2\\2\\2}\text .\] We kunnen dan kiezen \(\vec{v}=\vec{t}-2\cdot \vec{1}_3=\cv{1\\2\\3}-\cv{2\\2\\2}=\cv{-1\\0\\1}\).

Dan wordt de gevraagde orthogonale projectie van de vector \(\vec{\eta}\) op het opspansel van \(\vec{u}\) en \(\vec{v}\) gegeven door (reken zelf na) \(\frac{8}{3}\cdot\cv{1\\1\\1} +1\cdot \cv{-1\\0\\1}=\cv{\frac{5}{3}\\ \frac{8}{3}\\ \frac{11}{3}}\).

Nu moeten we de laatst gevonden vector nog als lineaire combinatie van \(\vec{t}\) en \(\vec{1}_3\) schrijven. We zoeken dus \(a\) en \(b\) zodanig dat \(a\cdot \cv{1\\2\\3}+ b\cdot \cv{1\\1\\1}=\cv{\frac{5}{3}\\ \frac{8}{3}\\ \frac{11}{3}}\). We moeten dus het volgende stelsel lineaire vergelijkingen oplossen \[ \left\{\;\begin{aligned} \phantom{2}a + b\;&= \frac{5}{3} \\ 2a+ b\;&=\frac{8}{3}\\ 3a+ b\;&=\frac{11}{3} \end{aligned} \right.\] Trek de eerste vergelijking van de tweede vergelijking af en je vindt \(a=1\). Invullen in de eerste vergelijking geeft \(b=\frac{2}{3}\). De kleinste kwadratenmethode geeft dus de beste lijnbenadering \(y=t+\frac{2}{3}\).

We gaan deze berekening overigens later vereenvoudigen via de berekening van de zogenaamde pseudoinverse.

About us ⋅ Help ⋅ Privacy ⋅ Terms and conditions
Copyright © 2023 SOWISO