Inom linjär algebra är singulärvärdesuppdelning (SVD), ibland kallat singulärvärdesfaktorisering eller singulärvärdesdekomposition, en sorts matrisfaktorisering. Alla reella och komplexa matriser kan singulärvärdefaktoriseras.
För en matris A av storlek
är singulärvärdesuppdelningen

där U är en kvadratisk unitär
-matris,
en är en diagonal och icke-negativ
-matris och
betecknar det hermiteska konjugatet till V, som är en unitär
-matris. Matrisen
har singulärvärdena till
i sin diagonal, och vanlig praxis är att dessa singulärvärden ordnas i storleksordning med det största singulärvärdet först vänsterifrån i
.
Singulärvärdesuppdelning är inte entydig. Exempelvis är
också en giltig uppdelning, där
och
är diagonalmatriser med
i diagonalen, för godtyckligt värde på
.
Man kan skriva om singulärvärdesuppdelningen
, där matrisen A har rang r, som en summa med r stycken matriser, så att varje matris i summan får rang 1, enligt nedan.

Här är
singulärvärde nummer
till A,
kolonnvektor
i U och
radvektor
i V.
Tunn singulärvärdesuppdelning fås genom att enbart beräkna de n vektorer i U som korresponderar med radvektorer i
. Övriga kolumnvektorer i U beräknas inte, och därmed går det mycket snabbare att beräkna en tunn singulärvärdesuppdelning jämfört med en vanlig singulärvärdesuppdelning.

Matrisen
blir då en
-matris,
en
-matris och V en
-matris.
Tunn singulärvärdesuppdelning är i synnerhet mer beräkningseffektiv än vanlig singulärvärdesuppdelning om
.
Kompakt singulärvärdesuppdelning fås genom att enbart beräkna de r kolumnerna i U och de r raderna i
som korresponderar mot nollskilda singulärvärden. Då fås:

Här är
en
-matris,
en diagonal
-matris och
en
-matris.
Kompakt singulärvärdesuppdelning är mer beräkningseffektiv än tunn singulärvärdesuppdelning om
.
För en
-matris A fås singulärvärdesuppdelningen i ett fåtal steg. Man börjar med att beräkna den kvadratiska matrisen
. Varför man gör detta syns tydligare om man skriver om
med singulärvärdesuppdelning:

Spektralsatsen för hermiteska matriser säger att alla hermiteska matriser M kan skrivas som
, där
är en diagonal matris med egenvärdena till matrisen M i diagonalen. Kolonnvektorerna till W utgörs av egenvektorerna till matrisen M , som i sin tur utgör en ortonormerad bas. Notera att eftersom M är en hermitesk matris har den enbart reella egenvärden.
Eftersom
är en hermitesk matris (
) har vi alltså likheten

Eftersom singulärvärdena till A är positiva (alltså är
) ser man att dessa fås genom att ta roten ur egenvärdena till
, dessutom ser man att V fås genom att beräkna egenvektorer till matrisen
.
Med
,
och
kända beräknas
enkelt genom att ställa upp
. Eftersom
är en diagonal matris är det enkelt att beräkna likheten. Ifall, för
-matrisen A,
eller ifall matrisen A inte har full rang kommer några kolonner inte att fås i detta steg, eftersom de multipliceras med 0. Dessa kolonnvektorer väljs då med fördel så att matrisen U blir unitär.
Alternativt kan man beräkna U genom att ställa upp
, då har man istället V som obekant och V kan beräknas som förklaras ovan. Man kan även beräkna U samt V separat genom att ställa upp
och
, denna metod innebär dock oftast mer arbete då man måste beräkna egenvektorer till två matriser.

Man börjar med att beräkna
.

Nu beräknar man egenvärden och egenvektorer till
genom att ställa upp det karakteristiska polynomet, för exempel på detta se artikeln om egenvärden och egenvektorer. Vi får egenvärdena till
, och därmed blir singulärvärdena
. Vi får egenvektorerna (normerade) enligt nedan:

Nu beräknar man U med hjälp av sambandet

Man ser att
kommer multipliceras med
, att
kommer multipliceras med 1 och att
kommer multipliceras med 0. Nu väljer man
och
så att likheten
gäller,
väljs ortogonal mot
och
.

Alltså har vi vår singulärvärdesuppdelning enligt nedan.
Singulärvärdesuppdelningen på vanlig form:

Singulärvärdesuppdelningen på summaform:

Singulärvärdesuppdelningen på tunn form:

Singulärvärdesuppdelningen till en matris A beräknas typiskt i två steg. I det första steget reduceras A till en bidiagonal matris. Detta tar
flyttalsoperationer, om
.
Det andra steget går ut på att beräkna singulärvärdesuppdelningen till denna bidiagonala matris. Detta steg beräknas iterativt med en bestämd precision. Om denna precision antas konstant tar det andra steget
iterationer, som var kostar
flyttalsoperationer. Därmed är det första steget det dyrare, och den totala kostnaden är
flyttalsoperationer.
Man kan enkelt beräkna Moore-Penrose pseudoinvers, betecknat
nedan, till en matris A med hjälp av singulärvärdesuppdelning. Om A har singulärvärdesuppdelning enligt
fås Moore-Penrose pseudoinvers till A enligt nedan.

Här beräknar man Σ† genom att först ta inversen av varje nollskillt singulärvärde i Σ, de singulärvärden som var 0 i Σ förblir 0 i Σ†, och sedan transponerar man resultatet. Moore-Penrose pseudoinvers används bland annat för att lösa linjära minstakvadratproblem.
Man kan enkelt bestämma rang samt de fyra fundamentala underrummen (värderummet och nollrummet till en given matris och matrisens hermiteska konjugat) till en matris A genom att titta på matrisens singulärvärdesuppdelning. Antag en singulärvärdesuppdelning enligt nedan, där
till
är samtliga nollskillda singulärvärden.

Då fås följande:

![{\displaystyle V(A)=N(A^{*})^{\perp }=\left[{\begin{pmatrix}|\\u_{1}\\|\end{pmatrix}},\,{\begin{matrix}\\\cdots \\\end{matrix}}\,,{\begin{pmatrix}|\\u_{r}\\|\end{pmatrix}}\right]\,\subset \,\mathbb {C} ^{m}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fa505d6002d838336cf846d8e92d41c6a56758a1)
![{\displaystyle V(A^{*})=N(A)^{\perp }=\left[{\begin{pmatrix}|\\v_{1}\\|\end{pmatrix}},\,{\begin{matrix}\\\cdots \\\end{matrix}}\,,{\begin{pmatrix}|\\v_{r}\\|\end{pmatrix}}\right]\,\subset \,\mathbb {C} ^{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aa78af06e2add4ce2898ed66eeb9285e094911c9)
![{\displaystyle N(A)=V(A^{*})^{\perp }=\left[{\begin{pmatrix}|\\v_{r+1}\\|\end{pmatrix}},\,{\begin{matrix}\\\cdots \\\end{matrix}}\,,{\begin{pmatrix}|\\v_{n}\\|\end{pmatrix}}\right]\,\subset \,\mathbb {C} ^{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/37408dbda633bebb3a4cf92c101e211527b99937)
![{\displaystyle N(A^{*})=V(A)^{\perp }=\left[{\begin{pmatrix}|\\u_{r+1}\\|\end{pmatrix}},\,{\begin{matrix}\\\cdots \\\end{matrix}}\,,{\begin{pmatrix}|\\u_{m}\\|\end{pmatrix}}\right]\,\subset \,\mathbb {C} ^{m}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/67cf2856b6413ce048179ccec8d3a8c27c282e8e)
En vanlig tillämpning av singulärvärdesuppdelning är att approximera en given matris med en annan liknande matris av lägre rang. Om man vill approximera en matris
av rang r med en matris
, som har rang
, där
, fås
med hjälp av singulärvärdesuppdelningen på summaform enligt nedan:

I de flesta tillämpningar är felet viktigt, vi betecknar felet B enligt följande.

Genom operatornorm eller frobeniusnorm av B fås felet vid approximationen
, dessa normer kan enkelt beräknas med hjälp av singulärvärdena enligt vad som visas nedan. Vilken av normerna som är bäst lämpad för feluppskattningen beror på tillämpning.


Denna metod för approximation används inom många tillämpningar, bland annat inom signalbehandlning. Om man till exempel har brus av storleksordningen
så kan man slänga bort termer som är små jämfört med bruset så att
ger en förbättrad signal.