Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Холево А.С. Введенеие в квантовую ТИ 2013

.pdf
Скачиваний:
59
Добавлен:
03.05.2015
Размер:
978.25 Кб
Скачать

4.2. ОПТИМАЛЬНОЕ РАЗЛИЧЕНИЕ КВАНТОВЫХ СОСТОЯНИЙ 51

Основная идея доказательства прямой теоремы кодирования, восходящая к работе Шеннона1, состоит в использовании случайного кодирования. Рассмотрим N слов w(1); : : : ; w(N); выбираемых случайным образом незави-

симо с распределением вероятностей P fw(j) = (x1; : : : ; xn)g = px1 ¢ : : : ¢ pxn ; где однобуквенное распределение fpxg выбрано так, что оно максимизиру-

ет I(X; Y ). Заметим, что имеется примерно 2nH(X) (2nH(Y )) типичных слов на входе (на выходе), и в среднем 2nH(Y jX) типичных слов на выходе для каждого входного слова w.

Для того, чтобы ошибка различения слов на выходе стремилась к нулю, надо, чтобы множества типичных слов на выходе, соответствующие разным словам на входе, асимптотически не пересекались, поэтому размер кода не должен превосходить

 

2nH(Y )

 

N ¼

2nH(Y jX) = 2n(H(Y )¡H(Y jX)) = 2nI(X;Y ):

(4.19)

Таким образом, N ¼ 2nC. Конечно, это рассуждение в высшей степени эвристично; строгое доказательство, реализующее эту идею, можно найти, например, в [10], [11].

Теорема кодирования раскрывает, таким образом, операциональный смысл понятия пропускной способности как максимальной скорости асимптотически безошибочной передачи информации через данный канал связи.

4.2Оптимальное различение квантовых состояний

4.2.1Постановка задачи

В этом разделе мы рассмотрим статистическую задачу, которая позволит в дальнейшем перейти к изучению квантовых каналов связи.

Пусть квантовая система находится в одном из состояний Sj, j = 1; : : : ; n: Над системой можно производить произвольное измерение. Требуется найти оптимальную процедуру измерения, позволяющую наилучшим образом выяснить, в каком из этих состояний находится система. Такая постановка задачи характерна для теории связи и для математической статистики.

Измерение (приемник) будет описываться наблюдаемой, т. е. разложением единицы M = fMkg: Вероятность принять решение k, при условии, что был послан сигнал j, при этом равна pM (kjj) = Tr SjMk: Если был послан сигнал j, то вероятность того, что было принято правильное решение, есть pM (jjj): Примем дополнительное предположение, что сигнал j появляется

свероятностью ¼j (например, в случае равновероятных сигналов ¼j = 1=n:)

1К. Шеннон, Статистическая теория передачи электрических сигналов, в кн. “Теория передачи электрических сигналов при наличии помех”, М.: ИЛ, 1953, 7-87.

52 Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫ

Тогда средняя вероятность правильного решения

Xn

PfMg = ¼jpM (j);

j=1

а средняя вероятность ошибки равна 1 ¡ PfMg, и задача состоит в ее минимизации, или же в максимизации PfMg. В статистике применяется и минимаксный критерий, когда минимизируется maxj pM (jj j); но мы его не будем здесь затрагивать.

Другой важный критерий, который мы рассмотрим позже, – шенноновская информация. Согласно формуле (4.7) количество взаимной информации между входом J (j номер входного состояния) и выходом K (k номер решения) дается формулой

J fMg = H(K) ¡ H(KjJ)

 

 

 

 

 

 

 

 

 

 

 

 

 

|

 

{z

 

}

|

 

{z

 

}

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

энтропия

условная

 

 

 

 

 

 

 

 

 

 

 

 

XX

энтропия

 

X X

 

 

 

 

 

 

 

 

 

 

Xl

 

 

 

 

 

 

 

 

 

=¡

pM (kjj)¼j log

 

pM

(kjl)¼l +

¼j

pM (kjj) log pM (kjj)

k

j

 

 

 

 

 

 

 

j

k

2

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

=

 

¼j

pM (kjj) log

 

pM (kjj

 

;

 

 

 

 

 

 

 

 

 

 

 

X X

 

 

 

l

 

 

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4P

 

)

5

 

 

 

 

 

 

 

 

 

 

 

 

j

k

 

 

 

 

 

M

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4.2.2Различение по максимуму правдоподобия

Будем максимизировать вероятность правильного решения

n

n

 

 

Xj

X Wj

Mj):

PfMg =

¼j Tr SjMj = Tr(

¼jSj

=1

j=1

|{z}

 

 

 

Множество наблюдаемых, по которым ведется оптимизация

Mn = (M = fMkgk=1;:::;n : Mk ¸ 0;

n Mk = I)

 

 

X

 

 

 

k=1

 

выпуклое. Смесь (выпуклая комбинация) наблюдаемых описывает статистику измерения, производимого прибором с флуктуирующими параметрами. Функция PfMg аффинна, т.е.

nX o X

P p¸M¸ = p¸PfM¸g:

Оптимизация аффинной функции, заданной на выпуклом множестве типичная задача линейного программирования.

4.2.ОПТИМАЛЬНОЕ РАЗЛИЧЕНИЕ КВАНТОВЫХ СОСТОЯНИЙ 53

Те о р е м а 13. Средняя вероятность правильного решения PfMg до-

стигает максимума в крайней точке множества Mn. Наблюдаемая M0 оптимальна тогда и только тогда, когда найдется эрмитов оператор ¤0 такой, что

1)0 ¡ Wk)Mk0 = 0;

2)¤0 ¸ Wk:

При этом имеет место соотношение двойственности

maxfPfMg : M 2 Mng = minfTr ¤ : ¤ ¸ Wk; k = 1; : : : ; ng:

(4.20)

Доказательство. Докажем достаточность условий теоремы.

Пусть наблюдаемая M0 удовлетворяет этим условиям, M 2 Mn произвольная наблюдаемая, тогда

PfMg = Tr XWkMk · Tr X

¤0Mk

 

 

2)

 

 

k

k

 

 

 

 

= Tr ¤0

1)

 

 

= Tr WkMk0PfM0g:

X

k

Здесь был использован простой факт:

З а д а ч а 17. Для B ¸ 0 в B(H) и A1; A2, таких что A1 · A2, имеет место Tr A1B · Tr A2B, причем равенство имеет место тогда и только тогда, когда

A1B = A2B.

Докажем необходимость условий теоремы.

Положим Mk

= X2; где Xk эрмитовы операторы, удовлетворяющие

условию

 

 

k

 

 

k

X2 = I: Применяя метод Лагранжа, сводим задачу максими-

 

k

 

M

 

 

M

 

 

 

зации PfPg на множестве

n к нахождению максимума функции

 

 

 

 

Tr XWkXk2 ¡ Tr ¤(XXk2 ¡ I);

(4.21)

 

 

 

k

k

 

где ¤ эрмитов оператор, по всевозможным наборам эрмитовых операторов Xk. Пусть Xk0 оптимальный набор, положим Xk = Xk0 + ²Yk; и рассмотрим (4.21) как функцию от ². Рассматривая коэффициенты при ² и ²2; получаем условия

Tr[(Wk ¡ ¤)Xk0 + Xk0(Wk ¡ ¤)]Yk = 0; Tr(Wk ¡ ¤)Yk2 · 0

для произвольных эрмитовых Yk, т.е.

(Wk ¡ ¤)Xk0 + Xk0(Wk ¡ ¤) = 0; ¤ ¡ Wk ¸ 0:

54

Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫ

Второе неравенство есть условие 2) теоремы. Полагая Mk0 = (Xk0)2; получаем из первого соотношения Tr(¤ ¡ Wk)Mk0 = 0; что вместе со вторым неравенством влечет условие 1).

З а д а ч а 18. Доказать, что операторный множитель Лагранжа ¤ является единственным решением двойственной задачи в правой части (4.20).

Проиллюстрируем смысл и полезность этих условий на нескольких примерах. Рассмотрим сначала классический случай, когда операторы плотности состояний коммутируют.

П р и м е р 1. Пусть операторы Wk (пропорциональные Sk) коммутируют, тогда существует общий ортонормированный базис, где они все диагонали-

зуются

 

X

 

 

 

 

Wk =

Wk(!)j!ih!j:

!

 

 

 

 

 

 

Тогда можно взять

X

 

 

 

 

¤0

=

max W

(!) !

ih

! ;

 

!

k

k

j

j

 

 

 

 

 

 

где max Wk(!) верхняя огибающая функций Wk(!); k = 1; : : : ; n; Mk0 =

!

1-kk(!)j!ih!j; 1-k обозначает индикатор подмножества -k, и подмноже-

ства -

k ½ f

! : ¤0

(!) = W

k

(!)

образуют разбиение множества - =

f

!

g

.

P

 

 

 

g

 

 

 

 

Это приводит

к принципу максимального правдоподобия в классической

статистике: k-е решение необходимо принимать для тех !, для которых Wk(!) максимально. Таким образом, в классическом случае оптимальная наблюдаемая всегда может быть выбрана нерандомизованной. Это прямо связано с тем фактом, что в коммутативном случае крайние точки множе-

ства Mn

отвечают ортогональным разложениям единицы (см. задачу 7).

 

 

 

e1

 

 

П р и м е р 2 ( У п р а ж н е н и е 19 ). Раз-

 

 

6¡µ´3

 

 

 

личение двух квантовых состояний. Про-

 

 

¡´

´

Ã1

-

 

 

 

 

 

 

 

извольная наблюдаемая с двумя значени-

 

 

Q

 

 

Ã0

 

 

 

@Q

 

 

 

 

 

 

 

Qs

 

 

 

ями имеет вид M = fM0; M1g; M0;1 ¸

 

 

e@R0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0;

M1 = I ¡ M0; причем стандартные

Рис. 4.2: Различение двух чи-

наблюдаемые характеризуются условием

стых состояний.

 

 

 

M02

= M0, которое в точности соответ-

ствует крайним точкам "некоммутативного отрезка"M2 = f0 · M0 · Ig (задача 20 ). Таким образом, для различения двух состояний достаточно стандартных наблюдаемых.

Приведем явное решение. Пусть S0; S1 произвольные операторы плотности. Оператор Лагранжа

¤ = ¼0S0M0 + ¼1S1M1 = ¼1S1 + (¼0S0 ¡ ¼1S1)M0

эрмитов, поэтому [M0; ¼0S0 ¡ ¼1S1] = 0. Неравенство ¤ ¸ ¼1S1 влечет (¼0S0 ¡ ¼1S1)M0 ¸ 0, a из ¤ ¸ ¼0S0 вытекает

(¼0S0 ¡ ¼1S1)M0 ¸ (¼0S0 ¡ ¼1S1):

Ã1
AK

4.2. ОПТИМАЛЬНОЕ РАЗЛИЧЕНИЕ КВАНТОВЫХ СОСТОЯНИЙ 55

Очевидным решением является M0 = 1(0;1)(¼0S0 ¡ ¼1S1), т. е. проектор на собственное подпространство оператора ¼0S0 ¡ ¼1S1, отвечающий положи-

тельным собственным значениям. При этом

1

max PfMg = Tr[¼1S1 + (¼0S0 ¡ ¼1S1)+] = 2[1 + 0S0 ¡ ¼1S1k1];

где kT k1 = Tr jT j –ядерная норма оператора T . Здесь jT j = T+ + T¡, где T+(T¡) положительная (отрицательная) часть эрмитова оператора T , т. е. компонента его спектрального разложения, отвечающая положительной (отрицательной) части спектра.

Пусть S0 = 0ihÃ0j; S1 = 1ihÃ1j: В этом случае оптимум дается ортонормированным базисом fje0i; je1ig, так что M0 = je0ihe0j; M1 = je1ihe1j: Вектор je0i отвечает положительному собственному числу ¸0 оператора ¼00ihÃ0j ¡ ¼11ihÃ1j, причем max PfMg = ¼1 + ¸0. Диагонализуя оператор ¼00ihÃ0j ¡ ¼11ihÃ1j, можно дать явное решение задачи (см. [8]). Пусть для простоты ¼0 = ¼1 = 1=2 , тогда оптимальный базис расположен симметрично по отношению к 0i; jÃ1i (рис. 4.2) и

max PfM0g = 12³1 + p1 ¡ j hÃ10ij 2´:

З а д а ч а 21. Показать, что для различения n чистых состояний с линейно независимыми векторами ji; j = 1; : : : ; n; достаточно стандартных наблюдаемых. В этом случае оптимальная наблюдаемая дается векторами некоторой ортонормированной системы jeji; j = 1; : : : ; n, см. [8].

П р и м е р 3 . На плоскости (рассматриваемой как вещественное подпространство двумерного унитарного пространства) рассмотрим “равноугольную” кон-

 

A

 

 

 

 

 

фигурацию трех векторов (рис. 4.3)

 

 

 

A

-Ã

 

 

 

 

 

 

 

 

 

 

 

 

 

 

A

 

0

 

 

 

 

 

 

 

 

cos 2

 

 

 

¢¢

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

ji = " sin 23 #;

j = 0; 1; 2:

(4.22)

¢

 

 

 

 

 

 

Соответствующие операторы плотности Sj = jihÃjj;

¢®

 

 

 

 

 

 

Ã2

 

 

 

 

 

 

описывают состояния двухуровневой системы, напри-

 

 

 

 

 

 

мер, плоскополяризованного фотона или частицы со

Рис. 4.3:

Векторы

спином 1=2.

 

 

 

 

 

 

 

 

 

трех состояний

 

 

 

 

 

 

 

 

 

 

 

 

 

Имеем

 

 

 

 

 

 

 

 

 

 

 

 

¸

 

 

 

 

Sj =

cos2 2

 

cos 2sin

2

 

 

 

 

cos

2

3

2

3

2

3

 

 

 

·

3

 

sin

3

sin2

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

cos 4

sin 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

3

 

 

 

 

 

 

 

 

 

 

 

=

2

 

µI + · sin 43

cos 43

¸¶:

(4.23)

Поскольку

X2 ei 43 = 0;

j=0

56

Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫ

то

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Xj

Sj =

3

I;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=0

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

то есть M0

= 2 Sk является разложением единицы.

 

 

 

 

 

 

 

 

 

k

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

¼

 

= 1=3;

 

M0

дает

Покажем, что в случае равновероятных состояний,

 

j

 

f

k g

2

оптимальную наблюдаемую. Проверим условия теоремы. Поскольку Sj =

Sj, то

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

1

 

 

2

 

2

2

1

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

Xj

 

 

 

 

 

 

 

 

 

 

¤0 =

 

 

3

Sj

3

Sj =

9

Sj; =

3

I:

 

 

 

 

 

 

 

j=0

 

 

 

=0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

так что I=3 = ¤0 ¸ Sj=3 (условие 2)) и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

2

 

 

1

 

 

 

 

 

 

 

 

 

 

 

µ¤0 ¡

 

Sj

 

Sj =

 

(I ¡ Sj)Sj

= 0

 

 

 

 

 

 

3

3

3

 

 

 

 

 

условие 1) также выполнено.

Итак, max PfMg = Tr ¤0 = 2=3: Найдем теперь максимум по всевозможным стандартным наблюдаемым с тремя значениями. Нетривиальное ортогональное разложение единицы с тремя компонентами в двумерном

пространстве имеет вид M0 = je0ihe0j; M1 = je1ihe1j; M2 = 0; где je0i; je1i;

– произвольный базис. Находя соответствующий максимум, получаем

 

 

 

 

 

 

1 + p

 

=2

 

2

 

 

 

 

 

 

 

 

max

M

g

=

3

<

max

M

g

:

 

 

 

 

 

 

 

 

 

3

 

 

3

M

¡

стандартные Pf

 

 

 

 

= M

2

M Pf

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таким образом, использование в квантовой статистике неортогональных разложений единицы в качестве наблюдаемых (т.е. использование квантовой рандомизации дополнительной независимой квантовой системы в фиксированном состоянии) может приводить к выигрышу при различении состояний исходной системы! Подчеркнем, что в классическом случае никакая рандомизация не может улучшить качество процедуры различения состояний.

С геометрической точки зрения, причина состоит в том, что в квантовом случае не все крайние точки множества наблюдаемых M3 (среди которых и находится наиболее информативная наблюдаемая), описываются ортогональными разложениями единицы.

4.2.3Максимум информации

Пусть система находится в одном из m состояний S1; : : : ; Sm; и над системой производится измерение наблюдаемой M = fMkg; k = 1; : : : ; n; с целью получить максимальное количество информации. Число исходов измерения n заранее не фиксировано. A priori нет оснований требовать совпадения n и m. Множество всех наблюдаемых с конечным числом исходов обозначим

M.

4.2. ОПТИМАЛЬНОЕ РАЗЛИЧЕНИЕ КВАНТОВЫХ СОСТОЯНИЙ 57

Таким образом, есть переходная вероятность pM (kjj) = Tr SjMk, и шен-

ноновское количество информации дается формулой

pM (kjl)¼li;

(4.24)

J fMg =

j ¼j k

pM (kjj)hlog pM (kjj) ¡ log

l

 

X X

 

X

 

 

где ¼j априорные вероятности состояний.

 

 

 

Л е м м а 5.

J fMg выпуклая функция на M, т.е.

 

J fpM(1) + (1 ¡ p)M(2)g · pJ fM(1)g + (1 ¡ p)J fM(2)g:

В силу аффинной зависимости переходной вероятности от M, достаточно доказать, что J fMg является выпуклой функцией от переходной вероятности. Это вытекает из следующего общего свойства.

Л е м м а 6. Шенноновское количество информации J fMg является выпуклой функцией от переходных вероятностей p(kjj) и вогнутой функцией от априорных вероятностей ¼j.

Ограничимся доказательством первого утверждения, а второе оставим в качестве упражнения.

Доказательство. Рассмотрим множество переходных вероятностей p(kjj) ¸ 0; Pp(kjj) = 1: Имеем

k

XX

 

X

 

J fMg =

p(kjj)¼jhlog p(kjj) ¡ log

p(kjl)¼li:

k j

l

Достаточно доказать выпуклость по переменным x для любого фиксированного k следующих функций

j

p

(

kj

j

) ¼jhlog p

(

kj

j

) ¡ log(

l

p

(kj

l

) ¼l)i;

 

 

 

 

 

 

 

X

 

 

jjj

}

 

 

jjj

}

X jjj

}

 

 

 

x

 

 

x

 

 

 

x

 

| {zj

| {zj

 

| {zl

поскольку количество информации является суммой слагаемых вида

 

f(x) =

j

¼jxjhlog xj ¡ log

l

xl¼li:

 

 

 

X

 

X

 

Дифференцируя по xj, получаем

 

 

xl¼l)i

 

@xj

= ¼jh(1 + log xj) ¡ (1 + log

l

 

@f(x)

 

 

 

 

X

 

(здесь для простоты log натуральный логарифм) и

@2f(x)

= ±kj

¼j

¡

¼j¼k

;

@xj@xk

xj

Pl

¼lxl

X

 

@2f(x)

 

X

 

¼j

 

(

P

¼jcj)2

 

 

 

 

 

 

 

j

 

j;k

cjck

@xj@xk

=

j

cj2

xj

¡

 

P l ¼lxl

:

58

Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫ

Согласно неравенству Коши-Буняковского,

 

X xl cj2

 

Xj

¼jcj X¼jpxj pxj

· X

¼lxl

;

 

 

 

 

cj

 

 

 

¼l

 

что и доказывает выпуклость функции f, а значит, и шенноновской информации.

З а д а ч а 22. Максимум непрерывной выпуклой функции на компактном выпуклом множестве достигается в крайней точке этого множества.

Таким образом, надо исследовать крайние точки множества M.

Л е м м а 7. Если наблюдаемая M0 получена укрупнением исходов наблюдаемой M, то J fM0g · J fMg.

Доказательство. Достаточно показать, что если два исхода j1; j2 наблюдаемой M объединить в один, не трогая остальных (к таким операциям сводится последовательно любое укрупнение), то

 

 

 

 

pM (j1ji)hlog pM (j1ji) ¡ log

l

 

pM (j1jl)¼li+

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

pM (j2jl)¼li ¸

 

 

 

 

 

 

 

+pM (j2ji)hlog pM (j2ji) ¡ log

 

 

l

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

¸ fpM

(j1ji) + pM (j2ji)g

log

pM (j1ji) + pM (j2ji)

¡

 

 

 

 

 

|

 

 

 

 

{z

 

 

}

 

 

³

 

 

 

 

 

 

 

´

 

 

 

 

 

 

Отвечает одному исходу в M0h

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

¡ log

l

¼l³pM (j1ji) + pM (j2ji)´i

 

Введем множитель 1=2:

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

pM

(j1ji)[: : :] +

1

pM (j2ji)[: : :] ¸

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

2

 

 

2j

 

 

½log

 

 

¡ log X

 

¾

 

 

 

 

 

 

 

 

¸ pM (j1ji)

2

M

(j

 

 

2

 

2

:

 

 

 

 

 

 

 

 

 

 

 

+ p

 

i)

 

 

 

[: : :]

 

 

[: : :]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и просуммируем по i. Теперь утверждение следует из выпуклости функции f.

Т е о р е м а 142.Пусть дан набор квантовых состояний S1; : : : Sm с определенными вероятностями ¼1; : : : ; ¼m, тогда существует наблюдаемая M0;

для которой max J fMg = J fM0g и такая, что ее компоненты линейно

M

независимые операторы ранга 1, т.е. Mj0 = jihÃjjj=1;:::;n, а число компонент n · d2; где d = dim H: Если все операторы Sj имеют вещественные

матрицы в некотором базисе, то n · d(d + 1)=2:

2E. B. Davies, “Information and quantum measurement,” IEEE Trans. Inform. Theory 24, no. 6, 596-599 (1978).

4.2. ОПТИМАЛЬНОЕ РАЗЛИЧЕНИЕ КВАНТОВЫХ СОСТОЯНИЙ 59

Доказательство. Пусть M0 оптимальная наблюдаемая, M0 = fM10;:::; Mj0;:::g:

Поскольку ее компоненты эрмитовы операторы, согласно спектральной

теореме каждый из них можноf

разложить по ортонормированномуf fбази- f

су собственных векторов, оставляя только компоненты с положительными собственными числами:

0 · X = Xxjjejihejj = Xpxjjejihejjpxj = XjihÃjj;

где ji = pxjjeji: Построим “разукрупненную"наблюдаемую M0 = fjÃjihÃjjgj=1;:::;n

(можем считать все Ãj различными после объединения одинаковых в одну

0 f0

компоненту.) Пользуясь леммой 7 об укрупнении, имеем J fM g ¸ J fM g: Согласно лемме 6 и задаче 22, можно считать, что M0 крайняя точка,

0 e e

имеющая компоненты Mj = jihÃjj (j = 1; : : : ; n). Отсюда по теореме 6 следует, что операторы jihÃjj линейно независимы. Но максимальное число линейно независимых эрмитовых операторов в d-мерном унитарном пространстве равно d2 (d(d + 1)=2 в вещественном случае).

Явное решение возможно в случаях, когда есть некоторая симметрия. П р и м е р 1. Рассмотрим простейший случай два вектора на плоскости

Sj = jihÃjj; j = 0; 1.

Конфигурацию состояний полностью характеризует вещественный параметр " = jhÃ01ij. Кроме того, имеется априорное распределение ¼0; ¼1. Согласно теореме, достаточно взять n = 3 (d = 2, вещественный случай.) Специальными рассуждениями можно показать, что на самом деле максимум достигается на ортонормированном базисе, оптимальном по максимуму правдоподобия (т.е. минимуму средней ошибки), так что фактически n = 2 (Левитин, 1994).

Интересен симметричный случай, когда ¼0 = ¼1 = 1=2. В этом случае

 

 

 

 

 

 

 

1 + p

 

 

 

 

 

max

 

M

 

= 1

 

h

1

 

"2

 

 

J f

g

¡

2

¡

!

(4.25)

M

 

 

Ã

и максимум информации достигается на базисе, расположенном симметрично по отношению к векторам Ã0; Ã1 (рис. 4.2), оптимальном по критерию

максимального

правдоподобия.

 

 

 

 

П р и м е р 2. Случай трех равновероятных “равно-

 

 

 

 

угольных” чистых состояний (4.23) с углами 2¼=3

 

Ã1

e0

 

между направлениями спинов. Согласно теореме,

 

6

 

 

KA

 

 

m · d(d + 1)=2 = 3: Используя симметрию задачи,

 

A

 

 

можно доказать, что информационно-оптимальная

 

AA

 

-Ã0

наблюдаемая имеет вид Mk = 32 jekihekjk=0;1;2; где

 

©H

HH e2

ekk (см. рис. 4.2.3; задача 23 ). Таким образом,

e1©© ¢

 

©¼

¢

 

Hj

она не совпадает с наблюдаемой, оптимальной по

¢максимуму правдоподобия, для которой ek = Ãk.

®¢

Более того, можно показать, что последняя явля-

Ã2

ется наихудшей с точки зрения информационного

Рис. 4.4: Информаци-

 

онный

оптимум для

 

3-х

равноугольных

 

состояний.

60

Глава 4. КЛАССИЧЕСКИ-КВАНТОВЫЕ КАНАЛЫ

 

критерия. Максимум информации по всевозмож-

 

ным наблюдаемым:

max

M

 

= log(3=2)

 

0:585

,

 

M J f

 

g

 

¼

 

 

тогда как max

J (M) ¼ 0:458:

 

 

 

M-стандартные

Пр и м е р 3. Пусть имеется n чистых состоя-

ний с линейно независимыми векторами. “Естественное” предположение, что существует информационно-оптимальная наблюдаемая с m = n исходами, оказывается неверным. Это было показано в работе Шора3, который рассмотрел конфигурацию из трех равноугольных векторов в трехмерном вещественном пространстве. Согласно теореме 7, число исходов информационно-оптимальной наблюдаемой ограничено величиной d(d + 1)=2 = 6 и именно такое число исходов оказывается необходимым (хотя выигрыш по сравнению с тремя исходами настолько мал, что его трудно заметить при численной оптимизации).

Однако, как показал Дэвис4, если состояния получены действием неприводимого представления некоторой группы симметрий, то существует ковариантная информационно-оптимальная наблюдаемая с числом исходов m = n. В случае трех равноугольных векторов на плоскости имеется вращательная симметрия, которая действует неприводимо над полем вещественных чисел (хотя, конечно, приводимо над полем комплексных чисел). Но в трех измерениях вращения вокруг оси приводимы даже над полем вещественных чисел, и упомянутый результат оказывается неприменим.

4.3Сжатие квантовой информации

Выше уже было отмечено, что квантовая информация это новый вид информации, который можно передавать, но нельзя размножать. Пусть имеется источник, производящий чистые состояния 1i; : : : ; jÃai с вероятностями p1; : : : ; pa (аналог классического алфавита). Могут посылаться длинные последовательности букв (слова), т.е. каждое слово задается последовательностью w = (x1; : : : ; xn), xj 2 f1; : : : ; ag.

Источник посылает сигнал wi = x1 i-¢ ¢ ¢-jÃxn i с вероятностью pw = px1 ¢ ¢ ¢ ¢ ¢ pxn . Кодирование – это сопоставление чистому состоянию wihÃwj оператора плотности Sw в гильбертовом пространстве Hd ½ H-n. Проблема состоит в том, чтобы кодирующие состояния не слишком сильно отличались от исходных, и в то же время находились в подпространстве по возможности минимальной размерности. Точность воспроизведения исходных состояний кодирующими измеряется величиной

X

Fn = pwwjSwwi;

w

3P. W. Shor, “On the number of elements needed in a POVM attaining the accessible information,” Arxiv:quant-ph/0009077.

4E. B. Davies, Information and quantum measurement, IEEE Trans. Inform. Theory 24 N6, pp. 596-599 1978.