Vektorer och matriser i kvantberäkning
Viss kunskap om linjär algebra är viktigt för att förstå kvantberäkning. Den här artikeln beskriver de grundläggande begreppen linjär algebra och hur du arbetar med vektorer och matriser inom kvantberäkning.
Vektorer
En kolumnvektor, eller vektor för kort, $v$ av dimension (eller storlek) $n$ är en samling av $n$ komplexa tal $(v_1,v_2,\ldots,v_n)$ ordnade som en kolumn:
$$v=\begin{bmatrix}\\ v_1 v_2\\ \vdots\\ v_n\end{bmatrix}$$
Normen för en vektor $v$ definieras som $\sqrt{\sum_i |v_i|^2}$. En vektor kallas för en enhetsvektor om dess norm är $1$.
Angränsande till en kolumnvektor $v$ är en radvektor som anges som $v^\dagger$ och definieras som conjugate-transponering av $v$. För en kolumnvektor $v$ av dimension $n$ är angränsande en radvektor av dimension $1 \times n$:
$$\begin{bmatrix}\\ v_1 \vdots \\ v_n \end{bmatrix}^\dagger=\begin{bmatrix}v_1^* & \cdots&ere; v_n^*\end{bmatrix}$$
där $v_i^*$ anger den komplexa konjugaten av $v_i$.
Med linjär algebra beskrivs tillståndet för en qubit $=\psia \ket{0} + b \ket{1}$ som en kvanttillståndsvektor$\begin{bmatrix} a \\ b \end{bmatrix}$, där $|a|^2 + |b|^2 = 1.$ Mer information finns i Kvantbiten.
Skalär produkt
Två vektorer kan multipliceras tillsammans genom den skalära produkten, även kallad punktprodukt eller inre produkt. Som namnet antyder är resultatet av den skalära produkten av två vektorer en skalär. Den skalära produkten ger projektionen av en vektor till en annan och används för att uttrycka en vektor som en summa av andra enklare vektorer. Den skalära produkten mellan två kolumnvektorer u och v betecknas som $\left\langle u, v\right\rangle= u^\dagger v $ och definieras som$ $$ $
$$\left\langleu, v\right\rangle= u^\dagger v=\begin{bmatrix}u_1^* & \cdots&ere; u_n^* \end{bmatrix}v_1 \vdots\\ v_n= \end{bmatrix}u_1^* v_1 + + \cdots u_n^* v_n.\\\begin{bmatrix} $$
Med den skalära produkten kan normen för en vektor $v$ skrivas som $\sqrt{\langle v, v\rangle}$.
Du kan multiplicera en vektor med ett tal $a$ för att bilda en ny vektor vars poster multipliceras $med en$. Du kan också lägga till två vektorer u och v för att bilda en ny vektor vars poster är summan av posterna $u$ och $v$.$ $$ $ Dessa åtgärder är följande:
$$\mathrm{Om}~u =\begin{bmatrix} u_1\\ u_2\\ \vdots\\ u_n \end{bmatrix}~\mathrm{och}~ v =\begin{bmatrix} v_1\\ v_2\\ \vdots\\ v_n \end{bmatrix},~\mathrm{ au}~ +bv =\begin{bmatrix} au_1+bv_1\\ au_2+bv_2\\ \vdots\\ au_n+bv_n \end{bmatrix}$$
Matriser
En matris med storlek $m \times n$ är en samling m $\cdot n$ komplexa tal ordnade i $m$ rader och $n$ kolumner enligt nedan:
$M =\begin{bmatrix} M_{~~{11} M_{12}\cdots~~~~ M_{1n}\\ M_~~{{21} M_\cdots{22}~~{~~ M_{2n}\\\ddots\\ M_{m1}~~ M_{m2~~\cdots}~~ M_{mn}\\\end{bmatrix}$
Kommentar
Observera att en vektor av dimension $n$ helt enkelt är en matris av storlek $n \times 1$.
Kvantåtgärder representeras av kvadratmatriser, dvs. antalet rader och kolumner är lika. Till exempel representeras enstaka kvantbitsåtgärder av $2 \times 2$ matriser, till exempel Pauli $X-åtgärden$
$$X =\begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}$$
Dricks
I Q#representeras Pauli $X-åtgärden$ av åtgärden X
.
Precis som med vektorer kan du multiplicera en matris med ett tal $c$ för att få en ny matris där varje post multipliceras med $c$, och två matriser med samma storlek kan läggas till för att skapa en ny matris vars poster är summan av respektive poster i de två matriserna.
Matris multiplikation
Du kan också multiplicera en matris $M$ av dimension $m\times n$ och en matris $N$ av dimension $n \times p$ för att få en ny matris $P$ av dimension $m \times p$ enligt följande:
$$\begin{\begin{align}&ere;\begin{bmatrix} {{11}~~ M_ M_~~{12}~~\cdots M_{1n}\\ M_~~{{21} M_\cdots~~{22}~~{ M_{2n\ddots\\}\\ M_{m1}~~ M_{m2~~~~\cdots} M_{mn}\end{bmatrix}\begin{bmatrix} N_{11}~~ N_{~~~~\cdots{12} N_{1p}\\ N_{21}{~~ N_\cdots{22}~~~~ N_{2p\ddots\\}\\ N_{n1~~} N_{n2}~~~~\cdots N_{np\end{bmatrix}=\begin{bmatrix}} P_ P_{{11}~~ {12}~~\cdots~~ {P_1p}\\ P_~~{{21} P_\cdots{22}~~{~~ P_{2p}\\\ddots\\ P_{m1}~~ P_{m2~~\cdots}~~ P_mp{}\end{bmatrix}\end{align}$$
där posterna $i P$ är $P_{ik}\sum=_j M_{ij}N_{jk.}$ Posten $P_{11}$ är till exempel den skalära produkten för den första raden i $M$ med den första kolumnen $i N$. Observera att eftersom en vektor helt enkelt är ett specialfall för en matris utökas den här definitionen till matrisvektor-multiplikation.
Särskilda typer av matriser
En särskild kvadratmatris är identitetsmatrisen, denoterade $\mathbb{\mathbb{I}$, som har alla sina diagonala element lika med $1$ och de återstående elementen är lika med $0$:
$\mathbb{\mathbb{I}=\begin{bmatrix}1 ~~ 0\cdots~~ ~~0\\ 0 ~~ 1~~ ~~\cdots0\ddots\\\\~~ 0 ~~ 0\cdots~~~~ 1 .\end{bmatrix}$
För en kvadratisk matris $A är en matris $B$ dess invertering om $AB = BA =\mathbb{\mathbb{I}$.$ Om en matris $A$ har en invertering är inverteringsmatrisen unik och skrivs som $A^{-1}$.
För valfri matris $M$ är adjoint eller conjugate transponering av $M$ en matris $N$ så att $N_{ij}= M_{ji}^*$. Angränsande M betecknas $M^\dagger$.$ $
En matris $U$ är enhetlig om $UU^\dagger= U^\dagger U\mathbb{I}$ =eller motsvarande U$^={{-1} U^.\dagger$ En viktig egenskap hos enhetsmatriser är att de bevarar normen för en vektor. Detta beror på att
$\langlev,v \rangle=v^\dagger v = v^\dagger U^{-1} U v v=^ U^\dagger\dagger U v =\langle U v, U v, U v\rangle.$
Kommentar
Kvantåtgärder representeras av enhetsmatriser, som är kvadratmatriser vars angränsande är lika med deras inverterade.
En matris $M$ kallas Hermitian om $M=M^\dagger$.
Inom kvantberäkning finns det i princip bara två matriser som du stöter på: Hermiteriska och enhetliga.
Tensor-produkt
En annan viktig åtgärd är tensorprodukten, även kallad matrisens direktprodukt eller Kronecker-produkt.
Tänk på de två vektorerna $v=\begin{bmatrix}a \\ b \end{bmatrix}$ och $u =\begin{bmatrix} c \\ d \end{bmatrix}$. Deras tensorprodukt betecknas som $v \otimes u$ och resulterar i en blockmatris.
$$\begin{bmatrix}a \\ b \end{bmatrix}\begin{bmatrix}\otimesc \\ d \end{bmatrix}\begin{bmatrix}=a \begin{bmatrix} c \\ d \end{bmatrix}\\[1.5em] b \begin{bmatrix} c \\ d\begin{bmatrix}=\end{bmatrix}\end{bmatrix} a c \\ a d b \\ c \\ b d\end{bmatrix}$$
Kommentar
Observera att tensor-produkten skiljer sig från matris multiplikation, vilket är en helt annan åtgärd.
Tensor-produkten används för att representera det kombinerade tillståndet för flera kvantbitar. Den verkliga kraften i kvantberäkning kommer från att utnyttja flera kvantbitar för att utföra beräkningar. Mer information finns i Åtgärder på flera kvantbitar.
Tensor-produkten av två kvadratmatriser $M$ och $N$ av storlek $n n\times n$ är en större matris $P=M\otimes N$ av storlek $n^2 \times n^2$. Till exempel:
$$\begin{bmatrix}a\ b \\ c\ d e\end{bmatrix}\otimes\begin{bmatrix}\ f\\ g\ h \end{bmatrix}\begin{bmatrix}=a\begin{bmatrix} e\ f\\ g\ h \end{bmatrix} b\begin{bmatrix} e\ f\\ g\ h \end{bmatrix}\\[1em] c\begin{bmatrix} e\ f\\ g\ h \end{bmatrix} d e\begin{bmatrix}\ f\\ g\ h \end{bmatrix}\begin{bmatrix}\end{bmatrix}=ae\ af\ be\ bf \\ ag\ ah\ bg\ bh \\ ce\ cf\ de\ df \\ cg\ ch\ dg\ dh .\end{bmatrix} $$
Eigenvalues och eigenvectors
Överväg en kvadratmatris $M$ och en vektor $v$. Vektorn $v$ är en eigenvector av $M$ om $Mv = cv$ för något nummer $c$. Heltal $c$ är det eigenvalue som motsvarar eigenvector $v$.
I allmänhet kan en matris $M$ omvandla en vektor till andra vektorer. En eigenvector är speciell eftersom den är oförändrad förutom att multipliceras med ett tal. Om $v$ är en eigenvector med eigenvalue $c$, är $av$ också en eigenvector (för någon nonzero $a$) med samma eigenvalue. För identitetsmatrisen är till exempel varje vektor $v$ en eigenvector med eigenvalue $1$.
Som ett annat exempel bör du överväga en diagonal matris$D$, som bara har poster som inte är noll på diagonalen:
$$\begin{bmatrix}&d_1 amp; 0 & 0 \\ 0 & d_2 & 0 0 \\ & 0 & d_3 \end{bmatrix}. $$
Vektorerna
$$\begin{bmatrix}1 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix}0 \\ 1 \\ 0\end{bmatrix}\text{och}\begin{bmatrix}0 \\ 0 \\ 1\end{bmatrix}$$
är eigenvectors av denna matris med eigenvalues $d_1$, $d_2$ och $d_3$, respektive. Om $d_1$, $d_2$ och $d_3$ är distinkta tal är dessa vektorer (och deras multiplar) de enda eigenvectors i matrisen $D$.
För en diagonal matris är det i allmänhet enkelt att läsa av eigenvalues och eigenvectors. Eigenvaluesna är alla numrerar som visas på diagonalen, och deras respektive eigenvectors är enhetsvektorerna med en post som är lika $med 1$ och de resterande posterna som är lika $med 0$.
Observera i exemplet att eigenvectors av $D$ utgör grunden för $3-dimensionella$ vektorer. En bas är en uppsättning vektorer så att alla vektorer kan skrivas som en linjär kombination av dem. Mer explicit $utgör v_1$, $v_2$ och $v_3$ en bas om någon vektor $v$ kan skrivas som $v=a_1 v_1 + a_2 v_2 + a_3 v_3$ för vissa tal $a_1$, $a_2$ och $a_3$.