Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебники / НЕЛИНЕЙНАЯ ДИНАМИКА СЛОЖНЫХ.pdf
Скачиваний:
640
Добавлен:
30.03.2022
Размер:
28.89 Mб
Скачать

http://profbeckman.narod.ru/

Поскольку обычно H>SN, то при помощи квантовых систем можно передать или обработать больше информации, чем с помощью их классических аналогов. На этом основаны методы квантового сверхплотного кодирования и эффективные алгоритмы квантовых вычислений, которые реализуются с помощью запутанных состояний.

7.7.3Линейная энтропия

Вквантовой механике и в квантовой теории информации, линейная энтропия является скаляром, определяемым как

SL=1-Tr(2)= 1-,

(131)

где – чистота состояния (чистота определяет меру по квантовым состояниям, давая информацию о том, как смешивается состояние).

Линейная энтропия изменяется нуля (чистое состояние) до (1-1/d) (полностью смешанное состояние) (здесь d – размер матрицы плотности)

Линейная энтропия – частный случай энтропии фон Неймана (наименьшая аппроксимация энтропии Неймана).

Линейная энтропия получается из энтропии Неймана путем разложения lnρ=ln(1- (1-ρ)) вокруг чистого состояния, ρ2 = ρ (разложение по неотрицательной матрице 1-ρ в ряд

Меркатора для логарифма, ограничиваясь ведущим членом):

 

 

 

 

1 2

 

1 3

 

ln

1

 

 

 

 

 

....

 

 

 

3

(132)

 

 

2

 

 

 

Линейная энтропия всегда больше энтропии Ньюмана, но в начале и конце они совпадают. Линейная энтропия и энтропия фон Неймана – аналогичные меры степени смешения состояния, хотя линейную энтропию легче вычислить, так как она не требует диагонализации матрицы плотности. Линейная энтропия – эффективная мера запутанности для системы из двух фермионов и их описание их бинарных столкновений проще, чем другими способами. Её используют, например, для описания эволюции

запутанности двух электронов.

 

Иногда линейную энтропию определяют другой нормировкой:

 

SL

d

1 Tr 2

(133)

 

 

d 1

 

которая гарантирует, что величина SL изменяется от нуля до единицы.

Количество информации Y в системе численно равно следу квадрата матрицы плотности. Меру информации можно рассматривать как количественную характеристику системы, когда физической величиной является сама система, точнее, матрица плотности, выступающая в данном случае в качестве оператора физической величины, то есть

Y= <ρ> =Tr2). (134)

Часто количество квантовой информации определяется просто как число кубитов в системе.

Энтропия Неймана – мера неопределенности квантового состояния. Неопределенность квантового состояния кубита даёт информацию о степени чистоты. Если размерность гильбертова пространства равна d, то энтропия не превышает значения log2d, причём максимум достигается только тогда, когда система находится в максимально смешанном (однородном) состоянии ρ=1/d. Для одиночного кубита, размерность гильбертова пространства которого d=2, энтропия S(ρ)=0 в случае чистого состояния ρ=|ψ><ψ| и S(ρ)=1 в случае максимально смешанного (однородного) состояния

ρ=1/2.

Сегодня некоторые устройства основаны на квантово-механических явлениях, и применяются для кодирования, передачи и декодирования информации. Оказалось важным, что максимум информации, передаваемый через канал является энтропией Неймана. Неймана энтропия – ёмкость канала связи. Энтропия Неймана имеет много общего с теорией Шеннона и применима как мера информации.

http://profbeckman.narod.ru/

Величина Tr2) используется в квантовой информатике, но уже не в качестве меры информации, а как характеристика степени чистоты состояния (purity), которая показывает, насколько близко данное состояние к чистому (для него Tr2)=1).

7.7.4 Сравнение энтропий Реньи, Цаллиса и Неймана

Как уже упоминалось, q-энтропии Реньи и Цаллиса зависят от действительного параметра q>0. Энтропия запутывания Реньи – функция от редуцированной матрицы плотности Н и действительного параметра q>0:

SR

1

ln Tr q

(135)

 

 

1 q

 

В пределе q1 энтропия запутывания Реньи переходит в энтропию запутывания Неймана.

Энтропия Цаллиса

ST=-Trln ,

 

 

 

 

(136)

 

q 1 1

 

 

 

 

 

 

 

 

lnq

 

 

 

,

если q 0

 

 

 

 

 

1 q

 

 

 

 

 

 

 

 

 

 

 

 

 

где

 

ln ,

 

если q 0 .

 

 

 

 

 

 

 

 

 

 

При q1 энтропии Цаллиса и Реньи переходят в энтропию Неймана. Связь между

энтропиями Реньи и Цаллиса выражаются формулами:

 

 

 

 

exp SR 1 q 1

 

 

ln 1 1 q S

 

ST

 

q

 

 

 

SR

 

Tq

 

 

1 q

1 q

(137)

 

 

 

и

 

Для энтропии Цаллиса выполняется условие

 

ST( ) ST(1)+ST(2)

 

 

 

 

(138)

для любого q>1.

 

 

 

 

 

 

 

 

Для энтропии Реньи справедливо неравенство

 

exp(SR(1)(1-q))+exp(SR(2)(2)(1-q))-exp(SR( )(1-q))<1.

(139)

Преимущество q-энтропии над энтропией Неймана – более сильная чувствительность к изменениям распределения вероятности (точнее диагональных элементов матрицы плотности).

Замечание. В информатике энтропия Шеннона – естественная мера нашего незнания о свойствах системы, существование которых не зависит от измерения. Наоборот, квантовое измерение не позволяет выявить даже свойства системы, существовавшие до проведения измерения. Возможно, неаддитивность энтропии Цаллиса использовать её как квантовую информационную меру, поскольку нелокальные корреляции можно описать благодаря своеобразию энтропии Цаллиса.

Предположим, что имеется некоторый источник квантовой информации – чёрный ящик, который при каждом обращении к нему выдает состояние |x> с вероятностью p(x), причем результаты разных обращений являются статистически независимыми. Состояния |x> принадлежат некоторому конечному набору состояний (алфавиту). В результате n- кратного обращения к источнику создается последовательность состояний |x1>, |x2>,..., |xn>, которую можно рассматривать как квантовое сообщение длиной n. Если сообщение не является случайным, то его можно сжать, т.е. преобразовать в более короткую последовательность кубитов, без потери информации. Последнее означает, что степень совпадения исходного состояния n кубитов и состояния, которое получается из сжатого при его развертывании, стремится к единице при n→∞. Минимальная длина сжатого сообщения в пределе n→∞ равна nSN(ρ). Энтропия Неймана определяет наименьшее (в отсутствии шумов и в пределе n→∞ количество физических ресурсов (кубитов), необходимых для передачи или хранения квантового сообщения, создаваемого источником, который описывается оператором плотности ρ.

http://profbeckman.narod.ru/

7.7.5 Энтропия Холево

Энтропия А.С. Холево базируется на предельной теореме, устанавливающей верхний предел на количество информации, которое может быть извлечено из квантовых состояний (доступной информации)

Пусть {ρ1, ρ2,...,ρn} – множество смешанных состояний и ρX – одно из этих состояний, проведенное по распределению вероятности P={p1, p2,...,pN}. Для любого измерения и выполняемого на рХ Х

Х

количество доступной информации о переменной А, зная результат В измерения, ограничено сверху следующим образом:

Y (A : B) S( p) pi S pi ,

(140)

i

где pi pi и S(pi) – энтропия Неймана.

i

Величина, стоящая в правой части этого неравенства, называется информацией Холева:

S

S( p) pi S( pi )

(141)

 

i

Оценка Холево доказывает, что n

кубитов, хотя и могут «нести» большое

количество (классической) информации (благодаря квантовой суперпозиции), количество классической информации, которую можно получить (доступная), может быть только выше n классических (не квантовых) бит. Это удивительно по двум причинам: 1) квантовые вычисления обычно намного более мощные, чем классические, поэтому выводы, что они являются только хорошими или уступают обычным методам, необычны; 2) требуется 2n-1 комплексных чисел для кодирования кубитов, которые представляют просто n бит.

Характер информационного содержания n квантовых битов весьма парадоксален - хотя для определения состояния этих n кубитов необходимо 2n-1 комплексных чисел, они не могут использоваться для кодирования более n классических битов информации.

Пусть получателя кодировки интересует только один, априори неизвестный бит из исходных n. Измерение, которое получатель делает для извлечения одного бита, может потенциально уничтожить часть или всю оставшуюся закодированную информацию. Это позволяет кодировать два бита в один кубит. Такое сжатие невозможно в классической информатике. Используя такие плотные квантовые коды, можно в сжатом виде кодировать весь телефонный справочник так, чтобы любой отдельный номер удалось извлечь из него с помощью подходящего измерения. Однако, эти коды не могут быть очень сжатыми – они требуют по крайней мере линейного числа квантовых битов. Удалось доказать, что ограничение вычислительной мощности конечного числа квантовых битов (т. е. квантовых конечных автоматов. Из теоремы Холево следует, что емкость квантовых каналов, может быть строго больше, чем классическая информация Шеннона. Возник вопрос: не будет ли пропускная способность квантовых каналов, вычисляемая в предположении параллельного использования асимптотически большого количества одинаковых каналов, совпадать с верхней границей Холево для одного канала, т.е. будет ли давать выигрыш при кодировании использование сцепленных состояний? Ответ: квантовый канал может как обладать, так и не обладать свойством аддитивности.

В частности, при выполнении свойства аддитивности получается, что хотя квантовый бит (кубит) теоретически может переносить больше информации, чем обычный бит, но извлечь из него можно не больше, чем из обычного классического бита. Это странно: квантовый бит, в отличии от обычного, может быть равен не только «1» или «0», но и одновременно иметь целый ряд значений между «0» и «1»: в кубите наблюдается суперпозиция состояний. Поэтому его полное состояние как объекта можно описать парой

http://profbeckman.narod.ru/

комплексных чисел, сумма квадратов которых равна единице, так что квантовые компьютеры рассматривают направление способное революционизировать вычисления.

Сжимаемость сообщений и доступной информации можно осуществить даже если источник выдает не чистые, а смешанные состояния. В этом случае энтропия фон Неймана заменяется энтропией Холево

S

 

x x

 

 

.

(142)

S

xS x

 

 

x

 

x

 

 

Энтропия Холево удовлетворяет неравенству S Н(Х), где Н(х) – энтропия Шеннона классического источника информации и равенство имеет место только тогда, когда носители состояний х ортогональны. При использовании смешанных состояний для передачи информации минимальное количество кубитов, необходимых для передачи или хранения квантового сообщения длиной n в пределе n будет равно nS , а верхняя оценка доступной информации равна S .