Тео́рія інформ́ації (англ. Information theory) — це математичне дослідження кількісного вираження, зберігання та передавання інформації. Заснував цю галузь і забезпечив їй надійну основу Клод Шеннон у 1940-х роках, хоча ранній внесок до цьому напряму зробили в 1920-х роках праці Гаррі Найквіста та Ральфа Гартлі. Вона перебуває на перетині електронної інженерії, математики, статистики, інформатики, нейробіології, фізики та електротехніки.
Ключовою мірою в теорії інформації є ентропія. Ентропія вимірює рівень невизначеності щодо значення випадкової величини або результату випадкового процесу. Наприклад, визначення результату підкидання
(що має два рівноймовірні результати) дає менше інформації (меншу ентропію, меншу невизначеність), аніж визначення результату кидання гральної кісточки (що має шість рівноймовірних результатів). До інших важливих мір у теорії інформації належать взаємна інформація, пропускна спроможність каналу, та відносна ентропія. До важливих підрозділів теорії інформації належать кодування джерела, алгоритмічна теорія складності, алгоритмічна теорія інформації та .До застосувань основних предметів теорії інформації належать кодування джерела/стиснення даних (наприклад, для файлів zip) та канальне кодування/виявляння та виправляння помилок (наприклад, для DSL). Її вплив був вирішальним для успіху місій «Вояджер» до глибокого космосу, винайдення компакт-диска, можливості мобільних телефонів і розвитку Інтернету й штучного інтелекту. Ця теорія також знайшла застосування й в інших сферах, як-от індуктивній статистиці,криптографії, нейробіології,сприйнятті,обробці сигналів,мовознавстві, еволюції та функціюванні молекулярних кодів (біоінформатиці), теплофізиці,молекулярній динаміці,чорних дірах, квантових обчисленнях, інформаційному пошуку, збиранні інформації, виявлянні плагіату,розпізнаванні образів, виявлянні аномалій,музичній аналітиці, створенні живопису, проєктуванні , вивченні космічного простору, вимірності простору, і навіть епістемології.
Огляд
Теорія інформації вивчає передавання, обробку, виділяння та використання інформації. Абстрактно інформацію можливо розглядати як розв'язання невизначеності. У випадку передавання інформації зашумленим каналом це абстрактне поняття формалізував 1948 року Клод Шеннон у статті під назвою «Математична теорія зв'язку», в якій інформацію розглянуто як набір можливих повідомлень, а метою є передавання цих повідомлень зашумленим каналом, щоби приймач міг відтворити повідомлення з низькою ймовірністю помилки, незважаючи на шум каналу. Головний результат Шеннона, , показав, що за великої кількості використань каналу швидкість передачі інформації, яка асимптотично досяжна, дорівнює пропускній спроможності каналу, величині, яка залежить лише від статистичних характеристик каналу, яким передають повідомлення.
Теорія кодування займається пошуком конкретних методів, званих кодами (англ. codes), для підвищення ефективності та зниження рівня помилок при передаванні даних зашумленими каналами, з наближенням до пропускної спроможності каналу. Ці коди можливо умовно поділити на методи стискання даних (кодування джерела) та виправляння помилок (кодування каналу). У випадку останнього знадобилося багато років, щоби знайти методи, можливість яких довів Шеннон.[джерело?]
Третій клас кодів у теорії інформації — алгоритми шифрування (як джерело?]
, так і шифри). Поняття, методи й результати з теорії кодування та теорії інформації широко використовують у криптографії та криптоаналізі, наприклад, одиничний бан.[Історичне підґрунтя
Знаковою подією, що заклала основу дисципліни теорії інформації та привернула до неї негайну світову увагу, стала публікація класичної статті Клода Е. Шеннона «Математична теорія зв'язку» в
у липні та жовтні 1948 року. Історик оцінив цю статтю як найважливіше досягнення 1948 року, вище за транзистор, зазначивши, що ця праця була «навіть глибшою й фундаментальнішою» за транзистор. Шеннон став відомим як «батько теорії інформації». Він викладав деякі зі своїх початкових ідей щодо теорії інформації ще 1939 року в листі до Веннівера Буша.До цієї статті обмежені інформаційно-теоретичні ідеї розробили в Bell Labs, при цьому всі вони неявно виходили з однакової ймовірності подій. У своїй статті 1924 року «Деякі чинники, які впливають на швидкість телеграфу» (англ. Certain Factors Affecting Telegraph Speed) Гаррі Найквіст помістив теоретичний розділ, де кількісно визначив «відомості» (англ. "intelligence") та «швидкість лінії» (англ. "line speed"), з якою їх можливо передавати комунікаційною системою, встановивши співвідношення W = K log m (що нагадує сталу Больцмана), де W — швидкість передачі відомостей, m — кількість різних рівнів напруги, з яких можна обирати на кожному часовому кроці, а K — стала. Стаття Ральфа Гартлі 1928 року «Передавання інформації» (англ. Transmission of Information) використовує термін інформація (англ. information) як вимірювану величину, що відображає здатність приймача розрізняти одну послідовність символів з будь-якими іншими, тим самим кількісно визначаючи інформацію як H = log Sn = n log S, де S — кількість можливих символів, а n — кількість символів у передаванні. Отже, одиницею інформації була десяткова цифра, яку згодом іноді називали гартлі на його честь як одиницю, шкалу або міру інформації. 1940 року Алан Тюрінг використав подібні ідеї як частину статистичного аналізу для розшифровки німецьких шифрів «Енігми» під час Другої світової війни.[джерело?]
Більшість математичного апарату теорії інформації для різноймовірнісних подій розробили для галузі термодинаміки Людвіг Больцман та Джозая Віллард Ґіббз. Зв'язки між інформаційною ентропією та термодинамічною ентропією, включно з важливими внесками джерело?]
1960-х років, розглянуто в статті ».[У революційній і новаторській статті Шеннона, роботу над якою було значною мірою завершено в Bell Labs до кінця 1944 року, Шеннон уперше представив якісну та кількісну модель зв'язку як статистичний процес, що лежить в основі теорії інформації, розпочавши з твердження:
Основна задача зв'язку полягає в тому, щоби відтворити в одній точці, точно або приблизно, повідомлення, вибране в іншій точці. Оригінальний текст (англ.) The fundamental problem of communication is that of reproducing at one point, either exactly or approximately, a message selected at another point. |
З нею прийшли ідеї:
- інформаційної ентропії та надмірності джерела, та їхньої значущості через ;
- взаємної інформації та пропускної спроможності зашумленого каналу, включно з обіцянкою бездоганної передачі без втрат, яку дає теорема про кодування для зашумленого каналу;
- практичного результату закону Шеннона — Гартлі для пропускної спроможності гауссового каналу; а також
- біта — нового способу бачення найфундаментальнішої одиниці інформації.[джерело?]
Кількості інформації
Цей розділ не містить посилань на джерела.(листопад 2024) |
Теорія інформації ґрунтується на теорії ймовірностей та статистиці, де кількісно виражену інформацію зазвичай описують у бітах. Теорія інформації часто займається вимірюванням інформації в розподілах, пов'язаних із випадковими величинами. Однією з найважливіших мір є ентропія, що є основою для багатьох інших мір. Ентропія дозволяє кількісно виразити міру інформації в окремій випадковій величині. Іншим корисним поняттям є взаємна інформація, визначена для двох випадкових величин, яка описує міру інформації, спільної між цими величинами, що можливо використовувати для опису їхньої кореляції. Перша величина є властивістю розподілу ймовірності випадкової величини й визначає границю швидкості, з якою дані, породжені незалежними зразками із заданим розподілом, можливо надійно стиснути. Друга є властивістю спільного розподілу двох випадкових величин і є максимальною швидкістю надійного передавання зашумленим каналом в границі довжин блоків, коли статистика каналу визначається цим спільним розподілом.
Вибір основи логарифму в наступних формулах визначає вживану одиницю інформаційної ентропії. Загальновживаною одиницею інформації є біт або шеннон, що ґрунтується на двійковому логарифмі. До інших одиниць належать нат, що ґрунтується на натуральному логарифмі, та десяткова цифра, що ґрунтується на десятковому логарифмі.
Далі вираз вигляду p log p, коли p = 0, вважають за згодою нульовим. Це виправдано тим, що для будь-якої основи логарифму.
Ентропія інформаційного джерела
Виходячи з функції маси ймовірності кожного символу джерела, що передається, ентропію Шеннона H у бітах (на символ) задають як
де pi — ймовірність трапляння i-того можливого значення символу джерела. Це рівняння дає ентропію в одиницях «біт» (на символ), оскільки воно використовує логарифм з основою 2, і таку міру ентропії на основі логарифму за основою 2 іноді називають шенноном на його честь. Ентропію також часто обчислюють, використовуючи натуральний логарифм (з основою e, де e — число Ейлера), що дає вимірювання ентропії в натах на символ й іноді спрощує аналіз, усуваючи потребу в додаткових сталих у формулах. Можливі й інші основи, хоча їх використовують рідше. Наприклад, логарифм з основою 28 = 256 дає вимірювання в байтах на символ, а логарифм з основою 10 — у десяткових цифрах (або гартлі) на символ.
Інтуїтивно, ентропія HX дискретної випадкової величини X є мірою невизначеності (англ. uncertainty), пов'язаної зі значенням X, коли відомий лише її розподіл.
Ентропія джерела, яке видає послідовність з N символів, які незалежні й однаково розподілені (н. о. р.), дорівнює N ⋅ H біт (на повідомлення з N символів). Якщо символи даних джерела однаково розподілені, але не незалежні, ентропія повідомлення довжиною N буде меншою за N ⋅ H.
Якщо передати 1000 бітів (нулів та одиниць), але значення кожного з цих бітів відоме приймачу (має певне значення з упевненістю) ще до передачі, то очевидно, що жодної інформації не передано. Якщо ж кожен біт незалежно й однаково правдоподібно може бути 0 або 1, то передано 1000 шеннонів інформації (частіше званих бітами). Між цими двома крайнощами інформацію можливо кількісно виразити наступним чином. Якщо — множина всіх повідомлень {x1, ..., xn}, якими може бути X, а p(x) — імовірність деякого , то ентропію H величини X визначають як
(Тут I(x) — власна інформація, що є внеском ентропії окремого повідомлення, а — математичне сподівання.) Однією з властивостей ентропії є те, що вона максимізується, коли всі повідомлення у просторі повідомлень рівноймовірні, тобто p(x) = 1/n, тобто найнепередбачуваніші, й у такому випадку H(X) = log n.
Особливий випадок інформаційної ентропії для випадкової величини з двома можливими результатами — функція бінарної ентропії, зазвичай з логарифмом за основою 2, що відтак має одиницею шеннон (Sh):
Спільна ентропія
Спільна ентропія (англ. joint entropy) двох дискретних випадкових величин X та Y — це просто ентропія їхньої двійки: (X, Y). Це означає, що якщо X та Y незалежні, то їхня спільна ентропія дорівнює сумі їхніх окремих ентропій.
Наприклад, якщо (X, Y) подає положення шахової фігури — X це рядок, а Y це стовпець, то спільна ентропія рядка та стовпця фігури буде ентропією її положення.
Попри схожість позначень, спільну ентропію не слід плутати з перехресною ентропією (англ. cross-entropy).
Умовна ентропія (неоднозначність)
Умовна ентропія (англ. conditional entropy) або умовна невизначеність (англ. conditional uncertainty) величини X за заданої випадкової величини Y (також звана неоднозначністюX щодо Y, англ. equivocation) — це усереднена умовна ентропія за Y:
Оскільки ентропія може бути обумовлена випадковою величиною (загальна умовна ентропія) або конкретним значенням цієї випадкової величини (часткова умовна ентропія), слід бути уважними, щоби не плутати ці два визначення умовної ентропії, перше з яких є поширенішим. Основною властивістю цієї форми умовної ентропії є те, що
Взаємна інформація (трансінформація)
Взаємна інформація (англ. mutual information) вимірює кількість інформації про одну випадкову величину, яку можливо отримати, спостерігаючи іншу. Вона важлива в комунікаціях, де її можливо використовувати для максимізування кількості спільної інформації між передаваним та отримуваним сигналами. Взаємну інформацію X відносно Y визначають як
де SI (англ. Specific mutual Information, конкретна взаємна інформація) — це поточкова взаємна інформація.
Основна властивість взаємної інформації полягає в тому, що
Тобто, знаючи Y, можливо заощадити в середньому I(X; Y) бітів при кодуванні X порівняно з ситуацією, коли Y невідома.
Взаємна інформація симетрична:
Взаємну інформацію можливо виразити як усереднення розходження Кульбака — Лейблера (приросту інформації) апостеріорного розподілу ймовірності X за заданого значення Y з апріорним розподілом X:
Іншими словами, це міра того, наскільки в середньому зміниться розподіл імовірності X, якщо задано значення Y. Її часто переобчислюють як розходження добутку відособлених розподілів зі справжнім спільним розподілом:
Взаємна інформація тісно пов'язана з критерієм логарифмічного відношення правдоподібностей у контексті таблиць спряженості та поліноміального розподілу, а також із критерієм χ2 Пірсона: взаємну інформацію можливо вважати статистикою для оцінювання незалежності пари змінних, і вона має добре визначений асимптотичний розподіл.
Розходження Кульбака — Лейблера (приріст інформації)
Розходження Кульбака — Лейблера (англ. Kullback–Leibler divergence, або розходження інформації, англ. information divergence, приріст інформації, англ. information gain, чи відносна ентропія, англ. relative entropy) — це спосіб порівняння двох розподілів: «істинного» розподілу ймовірності та довільного розподілу . Якщо ми стискаємо дані, вважаючи, що їхній розподіл це , тоді як насправді правильний розподіл це , розходження Кульбака–Лейблера визначає середню кількість додаткових бітів на дані, необхідних для стискання. Його відтак визначають як
Хоча іноді його й використовують як «метрику відстані», КЛ-розходження не є справжньою метрикою, оскільки воно не симетричне й не задовольняє нерівність трикутника (що робить його напів-квазиметрикою).
Іншим тлумаченням КЛ-розходження є «зайва несподіваність» (англ. "unnecessary surprise"), створювана апріорним розподілом у порівнянні з істинним: припустімо, що число X буде випадковим чином обрано з дискретної множини з розподілом ймовірності . Якщо Аліса знає істинний розподіл , а Боб вважає (має апріорне переконання), що цим розподілом є , то для Боба побачене значення X у середньому буде більш несподіваним, аніж для Аліси. КЛ-розходження є (об'єктивним) очікуваним значенням (суб'єктивної) несподіваності для Боба, мінус несподіваність для Аліси, виміряним у бітах, якщо логарифм взято за основою 2. Таким чином, міру того, наскільки «помилковим» є апріорне переконання Боба, можливо кількісно виразити у вигляді очікуваної «зайвої несподіваності» для нього.
Спрямована інформація
англ. directed Information) — це міра в теорії інформації, що кількісно визначає інформаційний потік від випадкового процесу до випадкового процесу . Термін спрямована інформація запровадив Джеймс Мессі, її визначено як
(- ,
де — .
На відміну від взаємної інформації, спрямована інформація не симетрична. вимірює кількість інформації, що передається причинно[прояснити: ком.] від до . Спрямована інформація знаходить широке застосування в задачах, де важливу роль відіграє причинність, як-от пропускна спроможність каналу зі зворотним зв'язком, пропускна спроможність дискретних мереж зі зворотним зв'язком,ставки з причинною додатковою інформацією,стиснення з причинною додатковою інформацією, постановки комунікації керування в реальному часі, та у статистичній фізиці.
Інші кількості
До інших важливих інформаційно-теоретичних кількостей належать ентропія Реньї та ентропія Цалліса (узагальнення поняття ентропії), диференціальна ентропія (узагальнення кількостей інформації для неперервних розподілів) та
. Також було запропоновано як міру кількості інформації, використаної для ухвалення рішення.Теорія кодування
Цей розділ не містить посилань на джерела.(листопад 2024) |
Теорія кодування — одне з найважливіших і найбезпосередніших застосувань теорії інформації. Її можливо поділити на теорію кодування джерела та теорію кодування каналу. Використовуючи статистичний опис даних, теорія інформації визначає кількість бітів, необхідних для опису даних, що є інформаційною ентропією джерела.
- Стиснення даних (кодування джерела): для задачі стиснення існують дві постановки:
- стиснення без втрат: дані мусять відновлюватися точно;
- стиснення з утратами: виділяє стільки бітів, скільки необхідно для відновлення даних із заданим рівнем точності, що вимірюється функцією спотворення. Цей підрозділ теорії інформації називають англ. rate–distortion theory). (
- Коди з виправлянням помилок (кодування каналу): тоді як стиснення даних усуває якомога більше надмірності, код з виправлянням помилок додає саме ту надмірність (тобто виправляння помилок), яка необхідна для ефективного й надійного передавання даних зашумленим каналом.
Цей поділ теорії кодування на стиснення й передавання обґрунтовано теоремами про передавання інформації, або теоремами про розділення джерела й каналу, які підтверджують використання бітів як універсальної валюти для інформації в багатьох контекстах. Проте ці теореми справедливі лише в ситуаціях, коли один передавач прагне спілкуватися з одним приймачем. У випадках, коли є понад одного передавача (канал із множинним доступом), понад одного приймача (канал мовлення) або проміжні «помічники» (англ. relay channel), чи для загальніших мереж, стиснення з подальшим передавання може вже не бути оптимальним.
,Теорія джерела
Будь-який процес, що породжує послідовні повідомлення, можливо розглядати як джерело (англ. source) інформації. Джерело без пам'яті (англ. memoryless) — це таке джерело, в якому кожне повідомлення — незалежна й однаково розподілена випадкова величина, тоді як властивості ергодичності та стаціонарності накладають менш жорсткі обмеження. Усі такі джерела стохастичні. Ці терміни добре вивчені й поза межами теорії інформації.
Швидкість
Інформаційна швидкість (англ. rate) — це усереднена ентропія на символ. Для джерел без пам'яті це просто ентропія кожного символу, тоді як у випадку стаціонарного стохастичного процесу це
тобто умовна ентропія символу за заданих всіх попередньо породжених символів. Для загальнішого випадку не обов'язково стаціонарного процесу середня швидкість (англ. average rate) це
тобто границя спільної ентропії на символ. Для стаціонарних джерел ці два вирази дають однаковий результат.
англ. information rate) визначають як
(У теорії інформації часто говорять про «швидкість» або «ентропію» мови. Це доречно, наприклад, коли джерело інформації — англомовна проза. Швидкість джерела інформації пов'язана з його надмірністю та можливістю стиснення, що є предметом кодування джерела.
Пропускна спроможність каналу
Передавання інформації каналом — основний мотив теорії інформації. Проте канали часто не забезпечують точного відтворення сигналу; його якість часто можуть знижувати шум, періоди тиші та інші форми спотворення сигналу.
Розгляньмо процес передавання дискретним каналом. Просту модель процесу подано нижче:
Тут X подає простір передаваних повідомлень, а Y — простір отримуваних повідомлень за одиницю часу нашим каналом. Нехай p(y|x) — умовна ймовірність Y за заданого X. Розгляньмо p(y|x) як притаманну незмінну властивість нашого каналу (що відображає природу його шуму). Тоді спільний розподіл X та Y повністю визначається нашим каналом і вибором f(x), відособленого розподілу повідомлень, які ми обираємо для передавання каналом. За цих обмежень ми би хотіли максимізувати швидкість інформації, або сигнал, який можливо передавати цим каналом. Відповідною мірою для цього є взаємна інформація, і цю максимальну взаємну інформацію називають пропускною спроможністю каналу (англ. channel capacity), та задають як
Ця пропускна спроможність має наступну властивість, пов'язану з передаванням на інформаційній швидкості R (де R зазвичай вимірюють у бітах на символ). Для будь-якої інформаційної швидкості R < C та похибки кодування ε > 0, за достатньо великого N, існує кодування довжини N, швидкість ≥ R та алгоритм декодування, такі, що максимальна ймовірність помилки в блоці ≤ ε; тобто завжди можливо передавати з довільно малою блоковою похибкою. Крім того, для будь-якої швидкості R > C передавати з довільно малою блоковою похибкою неможливо.
Канальне кодування (англ. channel coding) займається пошуком таких майже оптимальних кодувань, які можливо використовувати для передавання даних зашумленим каналом з невеликою кодувальною похибкою на швидкості, наближеній до пропускної спроможності каналу.
Пропускна спроможність окремих моделей каналів
- Канал аналогового передавання безперервного часу, підданий гауссовому шуму, — див. теорему Шеннона — Гартлі.
- 1 - Hb(p) бітів на одне використання каналу, де Hb — функція бінарної ентропії для логарифму за основою 2: (ДСК) з імовірністю спотворення p — це канал із бінарним входом і бінарним виходом, який змінює вхідний біт на протилежний з імовірністю p. ДСК має пропускну спроможність
- англ. erasure). Стирання подає повну втрату інформації про вхідний біт. Пропускна спроможність ДКС становить 1 - p бітів на одне використання каналу. (ДКС) з імовірністю стирання p — це канал із бінарним входом та тернарним виходом. Можливі виходи каналу — 0, 1 та третій символ 'e', званий стиранням (
Канали з пам'яттю та спрямована інформація
На практиці багато каналів мають пам'ять. Тобто, у момент часу канал визначається умовною ймовірністю . Часто зручніше використовувати запис , тоді канал стає . У такому випадку пропускна спроможність визначається швидкістю взаємної інформації, коли зворотний зв'язок недоступний, та швидкістю , якщо зворотний зв'язок наявний чи відсутній (якщо зворотний зв'язок відсутній, спрямована інформація дорівнює взаємній інформації).
Замінна інформація
Замінна інформація (англ. fungible information) — це інформація, для якої засоби кодування не мають значення. Класичні теоретики інформації та спеціалісти з комп'ютерних наук здебільшого цікавляться інформацією саме цього типу. Іноді її називають вимовною (англ. speakable) інформацією.
Застосування в інших галузях
Використання в розвідці та прикладна секретність
Цей розділ не містить посилань на джерела.(листопад 2024) |
Поняття теорії інформації застосовні до криптографії та криптоаналізу. Одиницю інформації, введену Тюрінгом — бан, використовували у проекті
» для зламування коду німецької машини «Енігма», що прискорило завершення Другої світової війни в Європі. Сам Шеннон визначив важливе поняття, відоме тепер як відстань єдиності. Виходячи з надмірності відкритого тексту, це поняття намагається оцінити мінімальну кількість шифротексту, необхідну для забезпечення унікальної розшифровуваності.Теорія інформації підказує нам, що зберігати секрети набагато складніше, ніж може здатися на перший погляд. Атака повним перебором може зламувати системи на основі асиметричних ключів, або більшості широко використовуваних методів шифрування з симетричними ключами (іноді званих алгоритмами з секретним ключем), як-от блокового шифру. Безпека всіх таких методів ґрунтується на припущенні, що не існує відомих атак, здатних зламати їх за практично прийнятний час.
охоплює такі методи як одноразовий блокнот, що не вразливі до подібних атак повним перебором. У таких випадках додатна умовна взаємна інформація між відкритим і шифрованим текстом (обумовлена ключем) може забезпечувати належну передачу, тоді як безумовна взаємна інформація між відкритим і шифрованим текстом залишається нульовою, що забезпечує абсолютно захищений зв'язок. Іншими словами, перехоплювач не зможе покращити свої припущення щодо відкритого тексту, здобувши інформацію про шифротекст без ключа. Проте, як і в будь-якій іншій криптографічній системі, для правильного застосування навіть інформаційно-теоретично захищених методів потрібно бути уважними; проєкт «Венона» виявився здатним зламати одноразові блокноти Радянського Союзу через їхнє неналежне повторне використання ключового матеріалу.
Генерування псевдовипадкових чисел
Цей розділ не містить посилань на джерела.(листопад 2024) |
Генератори псевдовипадкових чисел широко доступні в бібліотеках мов програмування та прикладних програмах. Проте майже повсюдно вони непридатні для криптографічного застосування, оскільки не обходять детерміновану природу сучасного комп'ютерного обладнання та програмного забезпечення. Один з класів удосконалених генераторів випадкових чисел називають криптографічно стійкими генераторами псевдовипадкових чисел, але навіть вони потребують для належної роботи випадкових початкових значень ззовні програмного забезпечення. Їх можливо отримувати за допомогою
, якщо робити це належним чином. Мірою достатньої випадковості в екстракторах є , величина, пов'язана з ентропією Шеннона через ентропію Реньї; ентропію Реньї також використовують для оцінювання випадковості в криптографічних системах. Хоч ці міри й пов'язані, відмінності між ними означають, що випадкова величина з високою ентропією Шеннона не обов'язково задовільна для використання в екстракторі та, відповідно, в криптографії.Сейсмічна розвідка
Одним із ранніх комерційних застосувань теорії інформації була галузь сейсмічного розвідування нафти. Робота в цій галузі уможливила відокремлювання небажаного шуму від потрібного сейсмічного сигналу. Теорія інформації та цифрова обробка сигналів пропонують значне підвищення роздільності та чіткості зображень порівняно з попередніми аналоговими методами.
Семіотика
Семіотики та у своїх працях із семіотики розглядали Чарлза Сандерса Пірса як творця теорії інформації. Наута визначав семіотичну теорію інформації як дослідження «внутрішніх процесів кодування, фільтрування та обробки інформації.»
Поняття з теорії інформації, як-от керування надмірністю та кодом, використовували такі семіотики як Умберто Еко та
для пояснення ідеології як форми передавання повідомлення, за якої домінантний соціальний клас передає своє повідомлення, використовуючи знаки з високим рівнем надмірності, так що з множини конкурентних повідомлень декодується лише одне.Організація інтегрованої обробки нейронної інформації
Кількісні методи теорії інформації застосували у когнітивістиці для аналізу організації інтегрованої обробки нейронної інформації в контексті англ. functional clusters, модель функційного кластерування та гіпотеза динамічного ядра (ГДЯ, англ. dynamic core hypothesis, DCH) Джеральда Едельмана та Джуліо Тононі) або ефективна інформація (англ. effective information, (ТІІ, англ. integrated information theory, IIT) свідомості Тононі), що ґрунтується на повторновикористовній організації обробки, тобто синхронізації нейрофізіологічної активності між групами нейронних сукупностей, або міру мінімізації вільної енергії на основі статистичних методів (принцип вільної енергії Карла Фрістана, інформаційно-теоретична міра, яка стверджує, що кожна адаптивна зміна в самоорганізовній системі веде до мінімізації вільної енергії, та гіпотеза ).
в когнітивній нейронауці. У цьому контексті визначають або інформаційно-теоретичну міру, таку як функційні кластери (Інші застосування
Теорія інформації також знаходить застосування у пошуку позаземного розуму, дослідженні чорних дір, біоінформатиці[джерело?], та .
Див. також
- Баєсове висновування
- Мінімальна довжина опису
- Мінімальна довжина повідомлення
- — узагальнення теорії інформації, яке охоплює квантову інформацію
- Теорія масового спілкування
- Філософія інформації
- Формальні науки
Застосування
- Азартні ігри
- Кібернетика
- Криптоаналіз
- Криптографія
- Розвідка (збирання інформації)
- Сейсмічна розвідка
Історія
- Гартлі, Р. В. Л.
- Шеннон, К. Е.
- Андрій Колмогоров
Теорія
- Асиметрична інформація
- Інформація за Фішером
- Квантова інформатика
- Кодування джерела
- Колмогоровська складність
- Теорія виявляння
- Теорія кодування
- Теорія оцінювання
- Філософія інформації
Поняття
- Бан (одиниця виміру)
- Взаємна інформація
- Відстань Геммінга
- Відстань єдиності
- Власна інформація
- Декодувальник
- Джерело інформації
- Диференціальна ентропія
- Ентропія Реньї
- Замінна інформація
- Інформаційна ентропія
- Канал зв'язку
- Надмірність
- Перплексивність
- Поточкова взаємна інформація (ПВІ)
- Прихований канал
- Пропускна спроможність каналу
- Розходження Кульбака — Лейблера
- Спільна ентропія
- Стиснення даних
- Умовна ентропія
Примітки
- Schneider, Thomas D. (2006). Claude Shannon: Biologist. IEEE Engineering in Medicine and Biology Magazine: The Quarterly Magazine of the Engineering in Medicine & Biology Society (англ.). 25 (1): 30—33. doi:10.1109/memb.2006.1578661. ISSN 0739-5175. PMC 1538977. PMID 16485389.
- Cruces, Sergio; Martín-Clemente, Rubén; Samek, Wojciech (3 липня 2019). Information Theory Applications in Signal Processing. Entropy (англ.). 21 (7): 653. Bibcode:2019Entrp..21..653C. doi:10.3390/e21070653. ISSN 1099-4300. PMC 7515149. PMID 33267367.
- Baleanu, D.; Balas, Valentina Emilia; Agarwal, Praveen, ред. (2023). Fractional Order Systems and Applications in Engineering. Advanced Studies in Complex Systems (англ.). London, United Kingdom: Academic Press. с. 23. ISBN 978-0-323-90953-2. OCLC 1314337815.
- (27 квітня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 8 листопада 2024.
- Shi, Zhongzhi (2011). Advanced Artificial Intelligence (англ.). World Scientific Publishing. с. 2. doi:10.1142/7547. ISBN 978-981-4291-34-7.
- Burnham, K. P.; Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach (англ.) (вид. Second). New York: Springer Science. ISBN 978-0-387-95364-9.
- F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code (англ.). The MIT press. ISBN 978-0262681087.
- Delgado-Bonal, Alfonso; Martín-Torres, Javier (3 листопада 2016). Human vision is determined based on information theory. Scientific Reports (англ.). 6 (1): 36038. Bibcode:2016NatSR...636038D. doi:10.1038/srep36038. ISSN 2045-2322. PMC 5093619. PMID 27808236.
- cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). Bayesian inference of phylogeny and its impact on evolutionary biology. Science (англ.). 294 (5550): 2310—2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192. S2CID 2138288.
- Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences. Gene (англ.). 215 (1): 111—122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097.
- Jaynes, E. T. (1957). Information Theory and Statistical Mechanics. Phys. Rev. (англ.). 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620. S2CID 17870175.
- Talaat, Khaled; Cowen, Benjamin; Anderoglu, Osman (5 жовтня 2020). Method of information entropy for convergence assessment of molecular dynamics simulations. Journal of Applied Physics (англ.). 128 (13): 135102. Bibcode:2020JAP...128m5102T. doi:10.1063/5.0019078. 1691442. S2CID 225010720.
- Bennett, Charles H.; Li, Ming; Ma, Bin (2003). Chain Letters and Evolutionary Histories. Scientific American (англ.). 288 (6): 76—81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. Архів оригіналу за 7 жовтня 2007. Процитовано 11 березня 2008. [Архівовано 2007-10-07 у Wayback Machine.]
- David R. Anderson (1 листопада 2003). Some background on why people in the empirical sciences may want to better understand the information-theoretic methods (PDF) (англ.). Архів оригіналу (PDF) за 23 липня 2011. Процитовано 23 червня 2010. [Архівовано 2011-07-23 у Wayback Machine.]
- Loy, D. Gareth (2017), Pareyon, Gabriel; Pina-Romero, Silvia; Agustín-Aquino, Octavio A.; Lluis-Puebla, Emilio (ред.), Music, Expectation, and Information Theory, The Musical-Mathematical Mind: Patterns and Transformations, Computational Music Science (англ.), Cham: Springer International Publishing, с. 161—169, doi:10.1007/978-3-319-47337-6_17, ISBN 978-3-319-47337-6, процитовано 19 вересня 2024
- Rocamora, Martín; Cancela, Pablo; Biscainho, Luiz (5 квітня 2019). Information Theory Concepts Applied to the Analysis of Rhythm in Recorded Music with Recurrent Rhythmic Patterns. Journal of the Audio Engineering Society (англ.). 67 (4): 160—173. doi:10.17743/jaes.2019.0003.
- Marsden, Alan (2020). New Prospects for Information Theory in Arts Research. Leonardo (англ.). 53 (3): 274—280. doi:10.1162/leon_a_01860. ISSN 0024-094X.
- Pinkard, Henry; Kabuli, Leyla; Markley, Eric; Chien, Tiffany; Jiao, Jiantao; Waller, Laura (2024). Universal evaluation and design of imaging systems using information estimation (англ.). arXiv:2405.20559 [physics.optics].
- Wing, Simon; Johnson, Jay R. (1 лютого 2019). Applications of Information Theory in Solar and Space Physics. Entropy (англ.). 21 (2): 140. Bibcode:2019Entrp..21..140W. doi:10.3390/e21020140. ISSN 1099-4300. PMC 7514618. PMID 33266856.
- Kak, Subhash (26 листопада 2020). Information theory and dimensionality of space. Scientific Reports (англ.). 10 (1): 20733. doi:10.1038/s41598-020-77855-9. ISSN 2045-2322.
- Harms, William F. (1998). The Use of Information Theory in Epistemology. Philosophy of Science (англ.). 65 (3): 472—501. doi:10.1086/392657. ISSN 0031-8248. JSTOR 188281.
- Gleick, 2011, с. 3—4.
- Horgan, John (27 квітня 2016). Claude Shannon: Tinkerer, Prankster, and Father of Information Theory. IEEE (англ.). Процитовано 30 вересня 2023.
- Roberts, Siobhan (30 квітня 2016). The Forgotten Father of the Information Age. The New Yorker (амер.). ISSN 0028-792X. Процитовано 30 вересня 2023.
- Tse, David (22 грудня 2020). How Claude Shannon Invented the Future. Quanta Magazine (англ.). Процитовано 30 вересня 2023.
- Braverman, Mark (19 вересня 2011). Information Theory in Computer Science (PDF) (англ.).
- Reza, 1994.
- Килівник, В.С.; Смірнова, В.Л.; Панчишин, Н.Я. (2019). Теорія інформації та її застосування в медичній реабілітації (PDF). Вісник медичних і біологічних досліджень (укр.). ТНМУ (1): 70—75. Архів (PDF) оригіналу за 6 березня 2022.
- Ash, 1990.
- Жураковський та Полторак, 2001, с. 36—40.
- Коваленко, 2020, с. 38—41.
- Massey, James (1990), Causality, Feedback And Directed Information, Proc. 1990 Intl. Symp. on Info. Th. and its Applications (англ.), CiteSeerX 10.1.1.36.5688
- Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
- Kramer, G. (January 2003). Capacity results for the discrete memoryless network. IEEE Transactions on Information Theory (англ.). 49 (1): 4—21. doi:10.1109/TIT.2002.806135.
- Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (June 2011). Interpretations of Directed Information in Portfolio Theory, Data Compression, and Hypothesis Testing. IEEE Transactions on Information Theory (англ.). 57 (6): 3248—3259. arXiv:0912.4872. doi:10.1109/TIT.2011.2136270. S2CID 11722596.
- Simeone, Osvaldo; Permuter, Haim Henri (June 2013). Source Coding When the Side Information May Be Delayed. IEEE Transactions on Information Theory (англ.). 59 (6): 3607—3618. arXiv:1109.1293. doi:10.1109/TIT.2013.2248192. S2CID 3211485.
- Charalambous, Charalambos D.; Stavrou, Photios A. (August 2016). Directed Information on Abstract Spaces: Properties and Variational Equalities. IEEE Transactions on Information Theory (англ.). 62 (11): 6019—6052. arXiv:1302.3971. doi:10.1109/TIT.2016.2604846. S2CID 8107565.
- Tanaka, Takashi; Esfahani, Peyman Mohajerin; Mitter, Sanjoy K. (January 2018). LQG Control With Minimum Directed Information: Semidefinite Programming Approach. IEEE Transactions on Automatic Control (англ.). 63 (1): 37—52. arXiv:1510.04214. doi:10.1109/TAC.2017.2709618. S2CID 1401958. Архів оригіналу за 12 квітня 2024 — через TU Delft Repositories.
- Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 квітня 2016). Analogy between gambling and measurement-based work extraction. Journal of Statistical Mechanics: Theory and Experiment (англ.). 2016 (4): 043403. arXiv:1404.6788. Bibcode:2016JSMTE..04.3403V. doi:10.1088/1742-5468/2016/04/043403. S2CID 124719237.
- Jerry D. Gibson (1998). Digital Compression for Multimedia: Principles and Standards (англ.). Morgan Kaufmann. ISBN 1-55860-369-7.
- Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). Finite State Channels With Time-Invariant Deterministic Feedback. IEEE Transactions on Information Theory (англ.). 55 (2): 644—662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
- Bartlett, Stephen D.; Rudolph, Terry; (April–June 2007). Reference frames, superselection rules, and quantum information. Reviews of Modern Physics (англ.). 79 (2): 555—606. arXiv:quant-ph/0610030. Bibcode:2007RvMP...79..555B. doi:10.1103/RevModPhys.79.555.
- Peres, A.; P. F. Scudo (2002b). A. Khrennikov (ред.). Quantum Theory: Reconsideration of Foundations (англ.). Växjö University Press, Växjö, Sweden. с. 283.
- Haggerty, Patrick E. (1981). The corporation and innovation. Strategic Management Journal (англ.). 2 (2): 97—118. doi:10.1002/smj.4250020202.
- Nauta, Doede (1972). The Meaning of Information (англ.). The Hague: Mouton. ISBN 9789027919960.
- Nöth, Winfried (January 2012). Charles S. Peirce's theory of information: a theory of the growth of symbols and of knowledge. Cybernetics and Human Knowing (англ.). 19 (1–2): 137—161.
- Nöth, Winfried (1981). "Semiotics of ideology". Semiotica (англ.), Issue 148.
- Maurer, H. (2021). Chapter 10: Systematic Class of Information Based Architecture Types. Cognitive Science: Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism (англ.). Boca Raton/FL: CRC Press. doi:10.1201/9781351043526. ISBN 978-1-351-04352-6.
- Edelman, G.M.; Tononi, G. (2000). A Universe of Consciousness: How Matter Becomes Imagination (англ.). New York: Basic Books. ISBN 978-0465013777.
- Tononi, G.; Sporns, O. (2003). Measuring information integration. BMC Neuroscience (англ.). 4: 1—20. doi:10.1186/1471-2202-4-31. PMC 331407. PMID 14641936.
- Tononi, G. (2004a). An information integration theory of consciousness. BMC Neuroscience (англ.). 5: 1—22. doi:10.1186/1471-2202-5-42. PMC 543470. PMID 15522121.
- Tononi, G. (2004b). Consciousness and the brain: theoretical aspects. У Adelman, G.; Smith, B. (ред.). Encyclopedia of Neuroscience (англ.) (вид. 3rd). Amsterdam, Oxford: Elsevier. ISBN 0-444-51432-5. Архів (PDF) оригіналу за 2 грудня 2023.
- Friston, K.; Stephan, K.E. (2007). Free-energy and the brain. Synthese (англ.). 159 (3): 417—458. doi:10.1007/s11229-007-9237-y. PMC 2660582. PMID 19325932.
- Friston, K. (2010). The free-energy principle: a unified brain theory. Nature Reviews Neuroscience (англ.). 11 (2): 127—138. doi:10.1038/nrn2787. PMID 20068583.
- Friston, K.; Breakstear, M.; Deco, G. (2012). Perception and self-organized instability. Frontiers in Computational Neuroscience (англ.). 6: 1—19. doi:10.3389/fncom.2012.00044. PMC 3390798. PMID 22783185.
- Friston, K. (2013). Life as we know it. Journal of the Royal Society Interface (англ.). 10 (86): 20130475. doi:10.1098/rsif.2013.0475. PMC 3730701. PMID 23825119.
- Kirchhoff, M.; Parr, T.; Palacios, E.; Friston, K.; Kiverstein, J. (2018). The Markov blankets of life: autonomy, active inference and the free energy principle. Journal of the Royal Society Interface (англ.). 15 (138): 20170792. doi:10.1098/rsif.2017.0792. PMC 5805980. PMID 29343629.
- ; ; Johnston, Simon; Hanser, Sean F. (February 2011). Information theory, animal communication, and the search for extraterrestrial intelligence. Acta Astronautica (англ.). 68 (3–4): 406—417. Bibcode:2011AcAau..68..406D. doi:10.1016/j.actaastro.2009.11.018.
Література
Класичні праці
- Shannon, C.E. (1948), "A Mathematical Theory of Communication", Bell System Technical Journal (англ.), 27, pp. 379–423 & 623–656, July & October, 1948. PDF.
Примітки та інші формати. - R.V.L. Hartley, "Transmission of Information", Bell System Technical Journal (англ.), July 1928
- Andrey Kolmogorov (1968), "Three approaches to the quantitative definition of information" in (англ.), 2, pp. 157–168. (Колмогоров, А. Н. (1965). Три подхода к определению понятия «количество информации». Пробл. передачи информ. (рос.). 1 (1): 3—11. Архів оригіналу за 26 червня 2017.)
Інші журнальні статті
- J. L. Kelly Jr., Princeton, "A New Interpretation of Information Rate" Bell System Technical Journal (англ.), Vol. 35, July 1956, pp. 917–26.
- R. Landauer, IEEE.org, "Information is Physical" Proc. Workshop on Physics and Computation PhysComp'92 (англ.) (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1–4.
- Landauer, R. (1961). Irreversibility and Heat Generation in the Computing Process (PDF). IBM J. Res. Dev. (англ.). 5 (3): 183—191. doi:10.1147/rd.53.0183.
- Timme, Nicholas; Alford, Wesley; Flecker, Benjamin; Beggs, John M. (2012). Multivariate information measures: an experimentalist's perspective (англ.). arXiv:1111.6857 [cs.IT].
Підручники з теорії інформації
- Alajaji, F. and Chen, P.N. An Introduction to Single-User Information Theory. (англ.) Singapore: Springer, 2018. ISBN 978-981-10-8000-5
- Arndt, C. Information Measures, Information and its Description in Science and Engineering (англ.) (Springer Series: Signals and Communication Technology), 2004, ISBN 978-3-540-40855-0
- Ash, Robert B. (1990) [1965]. Information Theory (англ.). New York: Dover Publications, Inc. ISBN 0-486-66521-6.
- Gallager, R. Information Theory and Reliable Communication. (англ.) New York: John Wiley and Sons, 1968. ISBN 0-471-29048-3
- Goldman, S. Information Theory. (англ.) New York: Prentice Hall, 1953. New York: Dover 1968 ISBN 0-486-62209-6, 2005 ISBN 0-486-44271-3
- Cover, Thomas; Thomas, Joy A. (2006). Elements of information theory (англ.) (вид. 2nd). New York: Wiley-Interscience. ISBN 0-471-24195-4.
- Csiszar, I, Korner, J. Information Theory: Coding Theorems for Discrete Memoryless Systems (англ.) Akademiai Kiado: 2nd edition, 1997. ISBN 963-05-7440-3
- (англ.) Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1 Information Theory, Inference, and Learning Algorithms
- Mansuripur, M. Introduction to Information Theory. (англ.) New York: Prentice Hall, 1987. ISBN 0-13-484668-0
- (англ.) Cambridge, 2002. ISBN 978-0521831857 . The Theory of Information and Coding.
- Pierce, JR. "An introduction to information theory: symbols, signals and noise". (англ.) Dover (2nd Edition). 1961 (перевидано Dover 1980).
- (1994) [1961]. An Introduction to Information Theory (англ.). New York: Dover Publications, Inc. ISBN 0-486-68210-2.
- Shannon, Claude; Weaver, Warren (1949). The Mathematical Theory of Communication (PDF) (англ.). Urbana, Illinois: University of Illinois Press. ISBN 0-252-72548-4. LCCN 49-11922.
- Stone, JV. Chapter 1 of book "Information Theory: A Tutorial Introduction" (англ.), University of Sheffield, England, 2014. ISBN 978-0956372857.
- Yeung, RW. A First Course in Information Theory (англ.) Kluwer Academic/Plenum Publishers, 2002. ISBN 0-306-46791-7.
- Yeung, RW. Information Theory and Network Coding (англ.) Springer 2008, 2002. ISBN 978-0-387-79233-0
Українською
- Жураковський, Ю.П.; Полторак, В.П. (2001). Теорія інформації та кодування (PDF) (укр.). Київ: Вища школа.
- Жураковський, Ю. П.; Гніліцький, В. В. (2002). Теорія інформації та кодування в задачах: Навчальний посібник (укр.). Житомир: ЖІТІ. Архів оригіналу за 23 липня 2024.
- Кожевников, В.Л.; Кожевников, А.В. (2012). Теорія інформації та кодування (PDF) (укр.). Дніпро: НГУ. Архів оригіналу (PDF) за 25 березня 2022.
- Коваленко, А.Є. (2020). Теорія інформації і кодування: курс лекцій (PDF) (укр.). Київ: КПІ. Архів (PDF) оригіналу за 26 липня 2023.
- Гусєв, О.Ю.; Конахович, Г.Ф.; Корнієнко, В.І.; Кузнецов, Г.В.; Пузиренко, О.Ю. (2010). Теорія електричного зв'язку. Навчальний посібник (PDF) (укр.). Львів: Магнолія 2006. ISBN 978-966-2025-97-2. Архів (PDF) оригіналу за 18 травня 2024.
- Білинський, Й.Й.; Огородник, К.В.; Юкиш, М.Й. (2011). Електронні системи. Навчальний посібник (PDF) (укр.). Вінниця: ВНТУ. Архів (PDF) оригіналу за 29 червня 2024.
- Партико, З.В. (2001). Образна концепція теорії інформації (укр.) (англ.). Львів: ЛНУ. ISBN 966-613-046-7.
Інші книги
- Leon Brillouin, Science and Information Theory (англ.), Mineola, N.Y.: Dover, [1956, 1962] 2004. ISBN 0-486-43918-6
- (2011). [[Інформація: історія, теорія, потік|The Information: A History, a Theory, a Flood]](англ.) (вид. 1st). New York: Vintage Books. ISBN 978-1-4000-9623-7.
{{cite book}}
: Назва URL містить вбудоване вікіпосилання (довідка) [[Категорія:Вікіпедія:Запити на переклад]] - A. I. Khinchin, Mathematical Foundations of Information Theory (англ.), New York: Dover, 1957. ISBN 0-486-60434-9
- H. S. Leff and A. F. Rex, Editors, Maxwell's Demon: Entropy, Information, Computing (англ.), Princeton University Press, Princeton, New Jersey (1990). ISBN 0-691-08727-X
- (англ.), Toronto: DEMO Publishing. . What is Information? - Propagating Organization in the Biosphere, the Symbolosphere, the Technosphere and the Econosphere
- Tom Siegfried, The Bit and the Pendulum (англ.), Wiley, 2000. ISBN 0-471-32174-5
- (англ.), Viking, 2006. ISBN 0-670-03441-X ,
- Jeremy Campbell, (англ.), Touchstone/Simon & Schuster, 1982, ISBN 0-671-44062-4
- Henri Theil, Economics and Information Theory (англ.), Rand McNally & Company - Chicago, 1967.
- Escolano, Suau, Bonev, Information Theory in Computer Vision and Pattern Recognition (англ.), Springer, 2009. ISBN 978-1-84882-296-2
- Vlatko Vedral, Decoding Reality: The Universe as Quantum Information (англ.), Oxford University Press 2010. ISBN 0-19-923769-7
Посилання
- Hazewinkel, Michiel, ред. (2001), Information, Математична енциклопедія, Springer, ISBN 978-1-55608-010-4
- Lambert F. L. (1999), "Shuffled Cards, Messy Desks, and Disorderly Dorm Rooms - Examples of Entropy Increase? Nonsense!", Journal of Chemical Education (англ.)
- IEEE Information Theory Society та Монографії, огляди та рецензії ITSOC [Архівовано 2018-06-12 у Wayback Machine.] (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Ne plutati z Naukovoyu informatikoyu Teo riya inform aciyi angl Information theory ce matematichne doslidzhennya kilkisnogo virazhennya zberigannya ta peredavannya informaciyi Zasnuvav cyu galuz i zabezpechiv yij nadijnu osnovu Klod Shennon u 1940 h rokah hocha rannij vnesok do comu napryamu zrobili v 1920 h rokah praci Garri Najkvista ta Ralfa Gartli Vona perebuvaye na peretini elektronnoyi inzheneriyi matematiki statistiki informatiki nejrobiologiyi fiziki ta elektrotehniki Klyuchovoyu miroyu v teoriyi informaciyi ye entropiya Entropiya vimiryuye riven neviznachenosti shodo znachennya vipadkovoyi velichini abo rezultatu vipadkovogo procesu Napriklad viznachennya rezultatu pidkidannya inshi movi sho maye dva rivnojmovirni rezultati daye menshe informaciyi menshu entropiyu menshu neviznachenist anizh viznachennya rezultatu kidannya gralnoyi kistochki sho maye shist rivnojmovirnih rezultativ Do inshih vazhlivih mir u teoriyi informaciyi nalezhat vzayemna informaciya propuskna spromozhnist kanalu inshi movi ta vidnosna entropiya Do vazhlivih pidrozdiliv teoriyi informaciyi nalezhat koduvannya dzherela algoritmichna teoriya skladnosti algoritmichna teoriya informaciyi ta inshi movi Do zastosuvan osnovnih predmetiv teoriyi informaciyi nalezhat koduvannya dzherela stisnennya danih napriklad dlya fajliv zip ta kanalne koduvannya viyavlyannya ta vipravlyannya pomilok napriklad dlya DSL Yiyi vpliv buv virishalnim dlya uspihu misij Voyadzher do glibokogo kosmosu vinajdennya kompakt diska mozhlivosti mobilnih telefoniv i rozvitku Internetu j shtuchnogo intelektu Cya teoriya takozh znajshla zastosuvannya j v inshih sferah yak ot induktivnij statistici kriptografiyi nejrobiologiyi sprijnyatti obrobci signaliv movoznavstvi evolyuciyi ta funkciyuvanni molekulyarnih kodiv bioinformatici teplofizici molekulyarnij dinamici chornih dirah kvantovih obchislennyah informacijnomu poshuku zbiranni informaciyi viyavlyanni plagiatu rozpiznavanni obraziv viyavlyanni anomalij muzichnij analitici stvorenni zhivopisu proyektuvanni inshi movi vivchenni kosmichnogo prostoru vimirnosti prostoru i navit epistemologiyi OglyadTeoriya informaciyi vivchaye peredavannya obrobku vidilyannya ta vikoristannya informaciyi Abstraktno informaciyu mozhlivo rozglyadati yak rozv yazannya neviznachenosti U vipadku peredavannya informaciyi zashumlenim kanalom ce abstraktne ponyattya formalizuvav 1948 roku Klod Shennon u statti pid nazvoyu Matematichna teoriya zv yazku v yakij informaciyu rozglyanuto yak nabir mozhlivih povidomlen a metoyu ye peredavannya cih povidomlen zashumlenim kanalom shobi prijmach mig vidtvoriti povidomlennya z nizkoyu jmovirnistyu pomilki nezvazhayuchi na shum kanalu Golovnij rezultat Shennona inshi movi pokazav sho za velikoyi kilkosti vikoristan kanalu shvidkist peredachi informaciyi yaka asimptotichno dosyazhna dorivnyuye propusknij spromozhnosti kanalu velichini yaka zalezhit lishe vid statistichnih harakteristik kanalu yakim peredayut povidomlennya Teoriya koduvannya zajmayetsya poshukom konkretnih metodiv zvanih kodami angl codes dlya pidvishennya efektivnosti ta znizhennya rivnya pomilok pri peredavanni danih zashumlenimi kanalami z nablizhennyam do propusknoyi spromozhnosti kanalu Ci kodi mozhlivo umovno podiliti na metodi stiskannya danih koduvannya dzherela ta vipravlyannya pomilok koduvannya kanalu U vipadku ostannogo znadobilosya bagato rokiv shobi znajti metodi mozhlivist yakih doviv Shennon dzherelo Tretij klas kodiv u teoriyi informaciyi algoritmi shifruvannya yak inshi movi tak i shifri Ponyattya metodi j rezultati z teoriyi koduvannya ta teoriyi informaciyi shiroko vikoristovuyut u kriptografiyi ta kriptoanalizi napriklad odinichnij ban dzherelo Istorichne pidgruntyaDokladnishe inshi movi Znakovoyu podiyeyu sho zaklala osnovu disciplini teoriyi informaciyi ta privernula do neyi negajnu svitovu uvagu stala publikaciya klasichnoyi statti Kloda E Shennona Matematichna teoriya zv yazku v inshi movi u lipni ta zhovtni 1948 roku Istorik inshi movi ociniv cyu stattyu yak najvazhlivishe dosyagnennya 1948 roku vishe za tranzistor zaznachivshi sho cya pracya bula navit glibshoyu j fundamentalnishoyu za tranzistor Shennon stav vidomim yak batko teoriyi informaciyi Vin vikladav deyaki zi svoyih pochatkovih idej shodo teoriyi informaciyi she 1939 roku v listi do Vennivera Busha Do ciyeyi statti obmezheni informacijno teoretichni ideyi rozrobili v Bell Labs pri comu vsi voni neyavno vihodili z odnakovoyi jmovirnosti podij U svoyij statti 1924 roku Deyaki chinniki yaki vplivayut na shvidkist telegrafu angl Certain Factors Affecting Telegraph Speed Garri Najkvist pomistiv teoretichnij rozdil de kilkisno viznachiv vidomosti angl intelligence ta shvidkist liniyi angl line speed z yakoyu yih mozhlivo peredavati komunikacijnoyu sistemoyu vstanovivshi spivvidnoshennya W K log m sho nagaduye stalu Bolcmana de W shvidkist peredachi vidomostej m kilkist riznih rivniv naprugi z yakih mozhna obirati na kozhnomu chasovomu kroci a K stala Stattya Ralfa Gartli 1928 roku Peredavannya informaciyi angl Transmission of Information vikoristovuye termin informaciya angl information yak vimiryuvanu velichinu sho vidobrazhaye zdatnist prijmacha rozriznyati odnu poslidovnist simvoliv z bud yakimi inshimi tim samim kilkisno viznachayuchi informaciyu yak H log Sn n log S de S kilkist mozhlivih simvoliv a n kilkist simvoliv u peredavanni Otzhe odiniceyu informaciyi bula desyatkova cifra yaku zgodom inodi nazivali gartli na jogo chest yak odinicyu shkalu abo miru informaciyi 1940 roku Alan Tyuring vikoristav podibni ideyi yak chastinu statistichnogo analizu dlya rozshifrovki nimeckih shifriv Enigmi pid chas Drugoyi svitovoyi vijni dzherelo Bilshist matematichnogo aparatu teoriyi informaciyi dlya riznojmovirnisnih podij rozrobili dlya galuzi termodinamiki Lyudvig Bolcman ta Dzhozaya Villard Gibbz Zv yazki mizh informacijnoyu entropiyeyu ta termodinamichnoyu entropiyeyu vklyuchno z vazhlivimi vneskami inshi movi 1960 h rokiv rozglyanuto v statti inshi movi dzherelo U revolyucijnij i novatorskij statti Shennona robotu nad yakoyu bulo znachnoyu miroyu zaversheno v Bell Labs do kincya 1944 roku Shennon upershe predstaviv yakisnu ta kilkisnu model zv yazku yak statistichnij proces sho lezhit v osnovi teoriyi informaciyi rozpochavshi z tverdzhennya Osnovna zadacha zv yazku polyagaye v tomu shobi vidtvoriti v odnij tochci tochno abo priblizno povidomlennya vibrane v inshij tochci Originalnij tekst angl The fundamental problem of communication is that of reproducing at one point either exactly or approximately a message selected at another point Z neyu prijshli ideyi informacijnoyi entropiyi ta nadmirnosti dzherela ta yihnoyi znachushosti cherez inshi movi vzayemnoyi informaciyi ta propusknoyi spromozhnosti zashumlenogo kanalu vklyuchno z obicyankoyu bezdogannoyi peredachi bez vtrat yaku daye teorema pro koduvannya dlya zashumlenogo kanalu praktichnogo rezultatu zakonu Shennona Gartli dlya propusknoyi spromozhnosti gaussovogo kanalu a takozh bita novogo sposobu bachennya najfundamentalnishoyi odinici informaciyi dzherelo Kilkosti informaciyiCej rozdil ne mistit posilan na dzherela Vi mozhete dopomogti polipshiti cej rozdil dodavshi posilannya na nadijni avtoritetni dzherela Material bez dzherel mozhe buti piddano sumnivu ta vilucheno listopad 2024 Dokladnishe Kilkosti informaciyi Teoriya informaciyi gruntuyetsya na teoriyi jmovirnostej ta statistici de kilkisno virazhenu informaciyu zazvichaj opisuyut u bitah Teoriya informaciyi chasto zajmayetsya vimiryuvannyam informaciyi v rozpodilah pov yazanih iz vipadkovimi velichinami Odniyeyu z najvazhlivishih mir ye entropiya sho ye osnovoyu dlya bagatoh inshih mir Entropiya dozvolyaye kilkisno viraziti miru informaciyi v okremij vipadkovij velichini Inshim korisnim ponyattyam ye vzayemna informaciya viznachena dlya dvoh vipadkovih velichin yaka opisuye miru informaciyi spilnoyi mizh cimi velichinami sho mozhlivo vikoristovuvati dlya opisu yihnoyi korelyaciyi Persha velichina ye vlastivistyu rozpodilu jmovirnosti vipadkovoyi velichini j viznachaye granicyu shvidkosti z yakoyu dani porodzheni nezalezhnimi zrazkami iz zadanim rozpodilom mozhlivo nadijno stisnuti Druga ye vlastivistyu spilnogo rozpodilu dvoh vipadkovih velichin i ye maksimalnoyu shvidkistyu nadijnogo peredavannya zashumlenim kanalom v granici dovzhin blokiv koli statistika kanalu viznachayetsya cim spilnim rozpodilom Vibir osnovi logarifmu v nastupnih formulah viznachaye vzhivanu odinicyu informacijnoyi entropiyi Zagalnovzhivanoyu odiniceyu informaciyi ye bit abo shennon sho gruntuyetsya na dvijkovomu logarifmi Do inshih odinic nalezhat nat sho gruntuyetsya na naturalnomu logarifmi ta desyatkova cifra sho gruntuyetsya na desyatkovomu logarifmi Dali viraz viglyadu p log p koli p 0 vvazhayut za zgodoyu nulovim Ce vipravdano tim sho limp 0 plog p 0 displaystyle lim p rightarrow 0 p log p 0 dlya bud yakoyi osnovi logarifmu Entropiya informacijnogo dzherela Vihodyachi z funkciyi masi jmovirnosti kozhnogo simvolu dzherela sho peredayetsya entropiyu Shennona H u bitah na simvol zadayut yak H ipilog2 pi displaystyle H sum i p i log 2 p i de pi jmovirnist traplyannya i togo mozhlivogo znachennya simvolu dzherela Ce rivnyannya daye entropiyu v odinicyah bit na simvol oskilki vono vikoristovuye logarifm z osnovoyu 2 i taku miru entropiyi na osnovi logarifmu za osnovoyu 2 inodi nazivayut shennonom na jogo chest Entropiyu takozh chasto obchislyuyut vikoristovuyuchi naturalnij logarifm z osnovoyu e de e chislo Ejlera sho daye vimiryuvannya entropiyi v natah na simvol j inodi sproshuye analiz usuvayuchi potrebu v dodatkovih stalih u formulah Mozhlivi j inshi osnovi hocha yih vikoristovuyut ridshe Napriklad logarifm z osnovoyu 28 256 daye vimiryuvannya v bajtah na simvol a logarifm z osnovoyu 10 u desyatkovih cifrah abo gartli na simvol Intuyitivno entropiya HX diskretnoyi vipadkovoyi velichini X ye miroyu neviznachenosti angl uncertainty pov yazanoyi zi znachennyam X koli vidomij lishe yiyi rozpodil Entropiya dzherela yake vidaye poslidovnist z N simvoliv yaki nezalezhni j odnakovo rozpodileni n o r dorivnyuye N H bit na povidomlennya z N simvoliv Yaksho simvoli danih dzherela odnakovo rozpodileni ale ne nezalezhni entropiya povidomlennya dovzhinoyu N bude menshoyu za N H Entropiya probi Bernulli yak funkciya jmovirnosti uspihu chasto zvana inshi movi Hb p Cya entropiya dosyagaye maksimumu v 1 bit na probu koli dva mozhlivi rezultati rivnojmovirni yak u vipadku pidkidannya simetrichnoyi moneti Yaksho peredati 1000 bitiv nuliv ta odinic ale znachennya kozhnogo z cih bitiv vidome prijmachu maye pevne znachennya z upevnenistyu she do peredachi to ochevidno sho zhodnoyi informaciyi ne peredano Yaksho zh kozhen bit nezalezhno j odnakovo pravdopodibno mozhe buti 0 abo 1 to peredano 1000 shennoniv informaciyi chastishe zvanih bitami Mizh cimi dvoma krajnoshami informaciyu mozhlivo kilkisno viraziti nastupnim chinom Yaksho X displaystyle mathbb X mnozhina vsih povidomlen x1 xn yakimi mozhe buti X a p x imovirnist deyakogo x X displaystyle x in mathbb X to entropiyu H velichini X viznachayut yak H X EX I x x Xp x log p x displaystyle H X mathbb E X I x sum x in mathbb X p x log p x Tut I x vlasna informaciya sho ye vneskom entropiyi okremogo povidomlennya a EX displaystyle mathbb E X matematichne spodivannya Odniyeyu z vlastivostej entropiyi ye te sho vona maksimizuyetsya koli vsi povidomlennya u prostori povidomlen rivnojmovirni tobto p x 1 n tobto najneperedbachuvanishi j u takomu vipadku H X log n Osoblivij vipadok informacijnoyi entropiyi dlya vipadkovoyi velichini z dvoma mozhlivimi rezultatami funkciya binarnoyi entropiyi zazvichaj z logarifmom za osnovoyu 2 sho vidtak maye odiniceyu shennon Sh Hb p plog2 p 1 p log2 1 p displaystyle H mathrm b p p log 2 p 1 p log 2 1 p Spilna entropiya Spilna entropiya angl joint entropy dvoh diskretnih vipadkovih velichin X ta Y ce prosto entropiya yihnoyi dvijki X Y Ce oznachaye sho yaksho X ta Y nezalezhni to yihnya spilna entropiya dorivnyuye sumi yihnih okremih entropij Napriklad yaksho X Y podaye polozhennya shahovoyi figuri X ce ryadok a Y ce stovpec to spilna entropiya ryadka ta stovpcya figuri bude entropiyeyu yiyi polozhennya H X Y EX Y log p x y x yp x y log p x y displaystyle H X Y mathbb E X Y log p x y sum x y p x y log p x y Popri shozhist poznachen spilnu entropiyu ne slid plutati z perehresnoyu entropiyeyu angl cross entropy Umovna entropiya neodnoznachnist Umovna entropiya angl conditional entropy abo umovna neviznachenist angl conditional uncertainty velichini X za zadanoyi vipadkovoyi velichini Y takozh zvana neodnoznachnistyuX shodo Y angl equivocation ce userednena umovna entropiya za Y H X Y EY H X y y Yp y x Xp x y log p x y x yp x y log p x y displaystyle H X Y mathbb E Y H X y sum y in Y p y sum x in X p x y log p x y sum x y p x y log p x y Oskilki entropiya mozhe buti obumovlena vipadkovoyu velichinoyu zagalna umovna entropiya abo konkretnim znachennyam ciyeyi vipadkovoyi velichini chastkova umovna entropiya slid buti uvazhnimi shobi ne plutati ci dva viznachennya umovnoyi entropiyi pershe z yakih ye poshirenishim Osnovnoyu vlastivistyu ciyeyi formi umovnoyi entropiyi ye te sho H X Y H X Y H Y displaystyle H X Y H X Y H Y Vzayemna informaciya transinformaciya Vzayemna informaciya angl mutual information vimiryuye kilkist informaciyi pro odnu vipadkovu velichinu yaku mozhlivo otrimati sposterigayuchi inshu Vona vazhliva v komunikaciyah de yiyi mozhlivo vikoristovuvati dlya maksimizuvannya kilkosti spilnoyi informaciyi mizh peredavanim ta otrimuvanim signalami Vzayemnu informaciyu X vidnosno Y viznachayut yak I X Y EX Y SI x y x yp x y log p x y p x p y displaystyle I X Y mathbb E X Y SI x y sum x y p x y log frac p x y p x p y de SI angl Specific mutual Information konkretna vzayemna informaciya ce potochkova vzayemna informaciya Osnovna vlastivist vzayemnoyi informaciyi polyagaye v tomu sho I X Y H X H X Y displaystyle I X Y H X H X Y Tobto znayuchi Y mozhlivo zaoshaditi v serednomu I X Y bitiv pri koduvanni X porivnyano z situaciyeyu koli Y nevidoma Vzayemna informaciya simetrichna I X Y I Y X H X H Y H X Y displaystyle I X Y I Y X H X H Y H X Y Vzayemnu informaciyu mozhlivo viraziti yak userednennya rozhodzhennya Kulbaka Lejblera prirostu informaciyi aposteriornogo rozpodilu jmovirnosti X za zadanogo znachennya Y z apriornim rozpodilom X I X Y Ep y DKL p X Y y p X displaystyle I X Y mathbb E p y D mathrm KL p X Y y p X Inshimi slovami ce mira togo naskilki v serednomu zminitsya rozpodil imovirnosti X yaksho zadano znachennya Y Yiyi chasto pereobchislyuyut yak rozhodzhennya dobutku vidosoblenih rozpodiliv zi spravzhnim spilnim rozpodilom I X Y DKL p X Y p X p Y displaystyle I X Y D mathrm KL p X Y p X p Y Vzayemna informaciya tisno pov yazana z kriteriyem logarifmichnogo vidnoshennya pravdopodibnostej u konteksti tablic spryazhenosti ta polinomialnogo rozpodilu a takozh iz kriteriyem x2 Pirsona vzayemnu informaciyu mozhlivo vvazhati statistikoyu dlya ocinyuvannya nezalezhnosti pari zminnih i vona maye dobre viznachenij asimptotichnij rozpodil Rozhodzhennya Kulbaka Lejblera pririst informaciyi Rozhodzhennya Kulbaka Lejblera angl Kullback Leibler divergence abo rozhodzhennya informaciyi angl information divergence pririst informaciyi angl information gain chi vidnosna entropiya angl relative entropy ce sposib porivnyannya dvoh rozpodiliv istinnogo rozpodilu jmovirnosti p X displaystyle p X ta dovilnogo rozpodilu q X displaystyle q X Yaksho mi stiskayemo dani vvazhayuchi sho yihnij rozpodil ce q X displaystyle q X todi yak naspravdi pravilnij rozpodil ce p X displaystyle p X rozhodzhennya Kulbaka Lejblera viznachaye serednyu kilkist dodatkovih bitiv na dani neobhidnih dlya stiskannya Jogo vidtak viznachayut yak DKL p X q X x X p x log q x x X p x log p x x Xp x log p x q x displaystyle D mathrm KL p X q X sum x in X p x log q x sum x in X p x log p x sum x in X p x log frac p x q x Hocha inodi jogo j vikoristovuyut yak metriku vidstani KL rozhodzhennya ne ye spravzhnoyu metrikoyu oskilki vono ne simetrichne j ne zadovolnyaye nerivnist trikutnika sho robit jogo napiv kvazimetrikoyu Inshim tlumachennyam KL rozhodzhennya ye zajva nespodivanist angl unnecessary surprise stvoryuvana apriornim rozpodilom u porivnyanni z istinnim pripustimo sho chislo X bude vipadkovim chinom obrano z diskretnoyi mnozhini z rozpodilom jmovirnosti p x displaystyle p x Yaksho Alisa znaye istinnij rozpodil p x displaystyle p x a Bob vvazhaye maye apriorne perekonannya sho cim rozpodilom ye q x displaystyle q x to dlya Boba pobachene znachennya X u serednomu bude bilsh nespodivanim anizh dlya Alisi KL rozhodzhennya ye ob yektivnim ochikuvanim znachennyam sub yektivnoyi nespodivanosti dlya Boba minus nespodivanist dlya Alisi vimiryanim u bitah yaksho logarifm vzyato za osnovoyu 2 Takim chinom miru togo naskilki pomilkovim ye apriorne perekonannya Boba mozhlivo kilkisno viraziti u viglyadi ochikuvanoyi zajvoyi nespodivanosti dlya nogo Spryamovana informaciya inshi movi angl directed Information I Xn Yn displaystyle I X n to Y n ce mira v teoriyi informaciyi sho kilkisno viznachaye informacijnij potik vid vipadkovogo procesu Xn X1 X2 Xn displaystyle X n X 1 X 2 dots X n do vipadkovogo procesu Yn Y1 Y2 Yn displaystyle Y n Y 1 Y 2 dots Y n Termin spryamovana informaciya zaprovadiv Dzhejms Messi yiyi viznacheno yak I Xn Yn i 1nI Xi Yi Yi 1 displaystyle I X n to Y n triangleq sum i 1 n I X i Y i Y i 1 de I Xi Yi Yi 1 displaystyle I X i Y i Y i 1 inshi movi I X1 X2 Xi Yi Y1 Y2 Yi 1 displaystyle I X 1 X 2 X i Y i Y 1 Y 2 Y i 1 Na vidminu vid vzayemnoyi informaciyi spryamovana informaciya ne simetrichna I Xn Yn displaystyle I X n to Y n vimiryuye kilkist informaciyi sho peredayetsya prichinno proyasniti kom vid Xn displaystyle X n do Yn displaystyle Y n Spryamovana informaciya znahodit shiroke zastosuvannya v zadachah de vazhlivu rol vidigraye prichinnist yak ot propuskna spromozhnist kanalu zi zvorotnim zv yazkom propuskna spromozhnist diskretnih merezh inshi movi zi zvorotnim zv yazkom stavki z prichinnoyu dodatkovoyu informaciyeyu stisnennya z prichinnoyu dodatkovoyu informaciyeyu postanovki komunikaciyi keruvannya v realnomu chasi ta u statistichnij fizici Inshi kilkosti Do inshih vazhlivih informacijno teoretichnih kilkostej nalezhat entropiya Renyi ta entropiya Callisa uzagalnennya ponyattya entropiyi diferencialna entropiya uzagalnennya kilkostej informaciyi dlya neperervnih rozpodiliv ta inshi movi Takozh bulo zaproponovano inshi movi yak miru kilkosti informaciyi vikoristanoyi dlya uhvalennya rishennya Teoriya koduvannyaCej rozdil ne mistit posilan na dzherela Vi mozhete dopomogti polipshiti cej rozdil dodavshi posilannya na nadijni avtoritetni dzherela Material bez dzherel mozhe buti piddano sumnivu ta vilucheno listopad 2024 Dokladnishe Teoriya koduvannya Zobrazhennya podryapin na zchituvanij poverhni CD R Muzichni j informacijni CD koduyut z vikoristannyam kodiv z vipravlyannyam pomilok tomu yih mozhlivo prochitati navit za nayavnosti neznachnih podryapin vikoristovuyuchi viyavlyannya j vipravlyannya pomilok Teoriya koduvannya odne z najvazhlivishih i najbezposerednishih zastosuvan teoriyi informaciyi Yiyi mozhlivo podiliti na teoriyu koduvannya dzherela ta teoriyu koduvannya kanalu Vikoristovuyuchi statistichnij opis danih teoriya informaciyi viznachaye kilkist bitiv neobhidnih dlya opisu danih sho ye informacijnoyu entropiyeyu dzherela Stisnennya danih koduvannya dzherela dlya zadachi stisnennya isnuyut dvi postanovki stisnennya bez vtrat dani musyat vidnovlyuvatisya tochno stisnennya z utratami vidilyaye stilki bitiv skilki neobhidno dlya vidnovlennya danih iz zadanim rivnem tochnosti sho vimiryuyetsya funkciyeyu spotvorennya Cej pidrozdil teoriyi informaciyi nazivayut inshi movi angl rate distortion theory Kodi z vipravlyannyam pomilok koduvannya kanalu todi yak stisnennya danih usuvaye yakomoga bilshe nadmirnosti kod z vipravlyannyam pomilok dodaye same tu nadmirnist tobto vipravlyannya pomilok yaka neobhidna dlya efektivnogo j nadijnogo peredavannya danih zashumlenim kanalom Cej podil teoriyi koduvannya na stisnennya j peredavannya obgruntovano teoremami pro peredavannya informaciyi abo teoremami pro rozdilennya dzherela j kanalu yaki pidtverdzhuyut vikoristannya bitiv yak universalnoyi valyuti dlya informaciyi v bagatoh kontekstah Prote ci teoremi spravedlivi lishe v situaciyah koli odin peredavach pragne spilkuvatisya z odnim prijmachem U vipadkah koli ye ponad odnogo peredavacha kanal iz mnozhinnim dostupom ponad odnogo prijmacha kanal movlennya abo promizhni pomichniki inshi movi angl relay channel chi dlya zagalnishih merezh stisnennya z podalshim peredavannya mozhe vzhe ne buti optimalnim Teoriya dzherela Bud yakij proces sho porodzhuye poslidovni povidomlennya mozhlivo rozglyadati yak dzherelo angl source informaciyi Dzherelo bez pam yati angl memoryless ce take dzherelo v yakomu kozhne povidomlennya nezalezhna j odnakovo rozpodilena vipadkova velichina todi yak vlastivosti ergodichnosti ta stacionarnosti nakladayut mensh zhorstki obmezhennya Usi taki dzherela stohastichni Ci termini dobre vivcheni j poza mezhami teoriyi informaciyi Shvidkist Informacijna shvidkist angl rate ce userednena entropiya na simvol Dlya dzherel bez pam yati ce prosto entropiya kozhnogo simvolu todi yak u vipadku stacionarnogo stohastichnogo procesu ce r limn H Xn Xn 1 Xn 2 Xn 3 displaystyle r lim n to infty H X n X n 1 X n 2 X n 3 ldots tobto umovna entropiya simvolu za zadanih vsih poperedno porodzhenih simvoliv Dlya zagalnishogo vipadku ne obov yazkovo stacionarnogo procesu serednya shvidkist angl average rate ce r limn 1nH X1 X2 Xn displaystyle r lim n to infty frac 1 n H X 1 X 2 dots X n tobto granicya spilnoyi entropiyi na simvol Dlya stacionarnih dzherel ci dva virazi dayut odnakovij rezultat inshi movi angl information rate viznachayut yak r limn 1nI X1 X2 Xn Y1 Y2 Yn displaystyle r lim n to infty frac 1 n I X 1 X 2 dots X n Y 1 Y 2 dots Y n U teoriyi informaciyi chasto govoryat pro shvidkist abo entropiyu movi Ce dorechno napriklad koli dzherelo informaciyi anglomovna proza Shvidkist dzherela informaciyi pov yazana z jogo nadmirnistyu ta mozhlivistyu stisnennya sho ye predmetom koduvannya dzherela Propuskna spromozhnist kanalu Dokladnishe Propuskna spromozhnist kanalu Peredavannya informaciyi kanalom osnovnij motiv teoriyi informaciyi Prote kanali chasto ne zabezpechuyut tochnogo vidtvorennya signalu jogo yakist chasto mozhut znizhuvati shum periodi tishi ta inshi formi spotvorennya signalu Rozglyanmo proces peredavannya diskretnim kanalom Prostu model procesu podano nizhche PovidomlennyaWKoduvalnikfn ZakodovanaposlidovnistXnKanalp y x OtrimanaposlidovnistYnDekoduvalnikgn GadanepovidomlennyaW displaystyle xrightarrow text Povidomlennya W begin array c hline text Koduvalnik f n hline end array xrightarrow mathrm text Zakodovana atop text poslidovnist X n begin array c hline text Kanal p y x hline end array xrightarrow mathrm text Otrimana atop text poslidovnist Y n begin array c hline text Dekoduvalnik g n hline end array xrightarrow mathrm text Gadane atop text povidomlennya hat W Tut X podaye prostir peredavanih povidomlen a Y prostir otrimuvanih povidomlen za odinicyu chasu nashim kanalom Nehaj p y x umovna jmovirnist Y za zadanogo X Rozglyanmo p y x yak pritamannu nezminnu vlastivist nashogo kanalu sho vidobrazhaye prirodu jogo shumu Todi spilnij rozpodil X ta Y povnistyu viznachayetsya nashim kanalom i viborom f x vidosoblenogo rozpodilu povidomlen yaki mi obirayemo dlya peredavannya kanalom Za cih obmezhen mi bi hotili maksimizuvati shvidkist informaciyi abo signal yakij mozhlivo peredavati cim kanalom Vidpovidnoyu miroyu dlya cogo ye vzayemna informaciya i cyu maksimalnu vzayemnu informaciyu nazivayut propusknoyu spromozhnistyu kanalu angl channel capacity ta zadayut yak C maxfI X Y displaystyle C max f I X Y Cya propuskna spromozhnist maye nastupnu vlastivist pov yazanu z peredavannyam na informacijnij shvidkosti R de R zazvichaj vimiryuyut u bitah na simvol Dlya bud yakoyi informacijnoyi shvidkosti R lt C ta pohibki koduvannya e gt 0 za dostatno velikogo N isnuye koduvannya dovzhini N shvidkist R ta algoritm dekoduvannya taki sho maksimalna jmovirnist pomilki v bloci e tobto zavzhdi mozhlivo peredavati z dovilno maloyu blokovoyu pohibkoyu Krim togo dlya bud yakoyi shvidkosti R gt C peredavati z dovilno maloyu blokovoyu pohibkoyu nemozhlivo Kanalne koduvannya angl channel coding zajmayetsya poshukom takih majzhe optimalnih koduvan yaki mozhlivo vikoristovuvati dlya peredavannya danih zashumlenim kanalom z nevelikoyu koduvalnoyu pohibkoyu na shvidkosti nablizhenij do propusknoyi spromozhnosti kanalu Propuskna spromozhnist okremih modelej kanaliv Kanal analogovogo peredavannya bezperervnogo chasu piddanij gaussovomu shumu div teoremu Shennona Gartli inshi movi DSK z imovirnistyu spotvorennya p ce kanal iz binarnim vhodom i binarnim vihodom yakij zminyuye vhidnij bit na protilezhnij z imovirnistyu p DSK maye propusknu spromozhnist 1 Hb p bitiv na odne vikoristannya kanalu de Hb funkciya binarnoyi entropiyi dlya logarifmu za osnovoyu 2 dd inshi movi DKS z imovirnistyu stirannya p ce kanal iz binarnim vhodom ta ternarnim vihodom Mozhlivi vihodi kanalu 0 1 ta tretij simvol e zvanij stirannyam angl erasure Stirannya podaye povnu vtratu informaciyi pro vhidnij bit Propuskna spromozhnist DKS stanovit 1 p bitiv na odne vikoristannya kanalu dd Kanali z pam yattyu ta spryamovana informaciya Na praktici bagato kanaliv mayut pam yat Tobto u moment chasu i displaystyle i kanal viznachayetsya umovnoyu jmovirnistyu P yi xi xi 1 xi 2 x1 yi 1 yi 2 y1 displaystyle P y i x i x i 1 x i 2 x 1 y i 1 y i 2 y 1 Chasto zruchnishe vikoristovuvati zapis xi xi xi 1 xi 2 x1 displaystyle x i x i x i 1 x i 2 x 1 todi kanal staye P yi xi yi 1 displaystyle P y i x i y i 1 U takomu vipadku propuskna spromozhnist viznachayetsya shvidkistyu vzayemnoyi informaciyi koli zvorotnij zv yazok nedostupnij ta shvidkistyu inshi movi yaksho zvorotnij zv yazok nayavnij chi vidsutnij yaksho zvorotnij zv yazok vidsutnij spryamovana informaciya dorivnyuye vzayemnij informaciyi Zaminna informaciya Zaminna informaciya angl fungible information ce informaciya dlya yakoyi zasobi koduvannya ne mayut znachennya Klasichni teoretiki informaciyi ta specialisti z komp yuternih nauk zdebilshogo cikavlyatsya informaciyeyu same cogo tipu Inodi yiyi nazivayut vimovnoyu angl speakable informaciyeyu Zastosuvannya v inshih galuzyahVikoristannya v rozvidci ta prikladna sekretnist Cej rozdil ne mistit posilan na dzherela Vi mozhete dopomogti polipshiti cej rozdil dodavshi posilannya na nadijni avtoritetni dzherela Material bez dzherel mozhe buti piddano sumnivu ta vilucheno listopad 2024 Ponyattya teoriyi informaciyi zastosovni do kriptografiyi ta kriptoanalizu Odinicyu informaciyi vvedenu Tyuringom ban vikoristovuvali u proekti inshi movi dlya zlamuvannya kodu nimeckoyi mashini Enigma sho priskorilo zavershennya Drugoyi svitovoyi vijni v Yevropi Sam Shennon viznachiv vazhlive ponyattya vidome teper yak vidstan yedinosti Vihodyachi z nadmirnosti vidkritogo tekstu ce ponyattya namagayetsya ociniti minimalnu kilkist shifrotekstu neobhidnu dlya zabezpechennya unikalnoyi rozshifrovuvanosti Teoriya informaciyi pidkazuye nam sho zberigati sekreti nabagato skladnishe nizh mozhe zdatisya na pershij poglyad Ataka povnim pereborom mozhe zlamuvati sistemi na osnovi asimetrichnih klyuchiv abo bilshosti shiroko vikoristovuvanih metodiv shifruvannya z simetrichnimi klyuchami inodi zvanih algoritmami z sekretnim klyuchem yak ot blokovogo shifru Bezpeka vsih takih metodiv gruntuyetsya na pripushenni sho ne isnuye vidomih atak zdatnih zlamati yih za praktichno prijnyatnij chas inshi movi ohoplyuye taki metodi yak odnorazovij bloknot sho ne vrazlivi do podibnih atak povnim pereborom U takih vipadkah dodatna umovna vzayemna informaciya mizh vidkritim i shifrovanim tekstom obumovlena klyuchem mozhe zabezpechuvati nalezhnu peredachu todi yak bezumovna vzayemna informaciya mizh vidkritim i shifrovanim tekstom zalishayetsya nulovoyu sho zabezpechuye absolyutno zahishenij zv yazok Inshimi slovami perehoplyuvach ne zmozhe pokrashiti svoyi pripushennya shodo vidkritogo tekstu zdobuvshi informaciyu pro shifrotekst bez klyucha Prote yak i v bud yakij inshij kriptografichnij sistemi dlya pravilnogo zastosuvannya navit informacijno teoretichno zahishenih metodiv potribno buti uvazhnimi proyekt Venona viyavivsya zdatnim zlamati odnorazovi bloknoti Radyanskogo Soyuzu cherez yihnye nenalezhne povtorne vikoristannya klyuchovogo materialu Generuvannya psevdovipadkovih chisel Cej rozdil ne mistit posilan na dzherela Vi mozhete dopomogti polipshiti cej rozdil dodavshi posilannya na nadijni avtoritetni dzherela Material bez dzherel mozhe buti piddano sumnivu ta vilucheno listopad 2024 Generatori psevdovipadkovih chisel shiroko dostupni v bibliotekah mov programuvannya ta prikladnih programah Prote majzhe povsyudno voni nepridatni dlya kriptografichnogo zastosuvannya oskilki ne obhodyat determinovanu prirodu suchasnogo komp yuternogo obladnannya ta programnogo zabezpechennya Odin z klasiv udoskonalenih generatoriv vipadkovih chisel nazivayut kriptografichno stijkimi generatorami psevdovipadkovih chisel ale navit voni potrebuyut dlya nalezhnoyi roboti vipadkovih pochatkovih znachen zzovni programnogo zabezpechennya Yih mozhlivo otrimuvati za dopomogoyu inshi movi yaksho robiti ce nalezhnim chinom Miroyu dostatnoyi vipadkovosti v ekstraktorah ye inshi movi velichina pov yazana z entropiyeyu Shennona cherez entropiyu Renyi entropiyu Renyi takozh vikoristovuyut dlya ocinyuvannya vipadkovosti v kriptografichnih sistemah Hoch ci miri j pov yazani vidminnosti mizh nimi oznachayut sho vipadkova velichina z visokoyu entropiyeyu Shennona ne obov yazkovo zadovilna dlya vikoristannya v ekstraktori ta vidpovidno v kriptografiyi Sejsmichna rozvidka Odnim iz rannih komercijnih zastosuvan teoriyi informaciyi bula galuz sejsmichnogo rozviduvannya nafti Robota v cij galuzi umozhlivila vidokremlyuvannya nebazhanogo shumu vid potribnogo sejsmichnogo signalu Teoriya informaciyi ta cifrova obrobka signaliv proponuyut znachne pidvishennya rozdilnosti ta chitkosti zobrazhen porivnyano z poperednimi analogovimi metodami Semiotika Semiotiki inshi movi ta inshi movi u svoyih pracyah iz semiotiki rozglyadali Charlza Sandersa Pirsa yak tvorcya teoriyi informaciyi 171 137 Nauta viznachav semiotichnu teoriyu informaciyi yak doslidzhennya vnutrishnih procesiv koduvannya filtruvannya ta obrobki informaciyi 91 Ponyattya z teoriyi informaciyi yak ot keruvannya nadmirnistyu ta kodom vikoristovuvali taki semiotiki yak Umberto Eko ta inshi movi dlya poyasnennya ideologiyi yak formi peredavannya povidomlennya za yakoyi dominantnij socialnij klas peredaye svoye povidomlennya vikoristovuyuchi znaki z visokim rivnem nadmirnosti tak sho z mnozhini konkurentnih povidomlen dekoduyetsya lishe odne Organizaciya integrovanoyi obrobki nejronnoyi informaciyi Kilkisni metodi teoriyi informaciyi zastosuvali u kognitivistici dlya analizu organizaciyi integrovanoyi obrobki nejronnoyi informaciyi v konteksti inshi movi v kognitivnij nejronauci U comu konteksti viznachayut abo informacijno teoretichnu miru taku yak funkcijni klasteri angl functional clusters model funkcijnogo klasteruvannya ta gipoteza dinamichnogo yadra GDYa angl dynamic core hypothesis DCH Dzheralda Edelmana ta Dzhulio Tononi abo efektivna informaciya angl effective information inshi movi TII angl integrated information theory IIT svidomosti Tononi sho gruntuyetsya na povtornovikoristovnij organizaciyi obrobki tobto sinhronizaciyi nejrofiziologichnoyi aktivnosti mizh grupami nejronnih sukupnostej abo miru minimizaciyi vilnoyi energiyi na osnovi statistichnih metodiv princip vilnoyi energiyi Karla Fristana informacijno teoretichna mira yaka stverdzhuye sho kozhna adaptivna zmina v samoorganizovnij sistemi vede do minimizaciyi vilnoyi energiyi ta gipoteza inshi movi Inshi zastosuvannya Teoriya informaciyi takozh znahodit zastosuvannya u poshuku pozazemnogo rozumu doslidzhenni chornih dir bioinformatici dzherelo ta inshi movi Div takozhPortal Matematika inshi movi Bayesove visnovuvannya inshi movi inshi movi Minimalna dovzhina opisu Minimalna dovzhina povidomlennya inshi movi uzagalnennya teoriyi informaciyi yake ohoplyuye kvantovu informaciyu Teoriya masovogo spilkuvannya Filosofiya informaciyi Formalni nauki Zastosuvannya Azartni igri inshi movi inshi movi Kibernetika Kriptoanaliz Kriptografiya Rozvidka zbirannya informaciyi Sejsmichna rozvidka Istoriya Gartli R V L inshi movi inshi movi inshi movi Shennon K E Andrij KolmogorovTeoriya inshi movi Asimetrichna informaciya inshi movi inshi movi Informaciya za Fisherom Kvantova informatika Koduvannya dzherela Kolmogorovska skladnist inshi movi inshi movi inshi movi Teoriya viyavlyannya inshi movi Teoriya koduvannya Teoriya ocinyuvannya Filosofiya informaciyi Ponyattya Ban odinicya vimiru Vzayemna informaciya Vidstan Gemminga Vidstan yedinosti Vlasna informaciya Dekoduvalnik Dzherelo informaciyi Diferencialna entropiya Entropiya Renyi Zaminna informaciya Informacijna entropiya inshi movi Kanal zv yazku Nadmirnist Perpleksivnist Potochkova vzayemna informaciya PVI inshi movi Prihovanij kanal Propuskna spromozhnist kanalu inshi movi Rozhodzhennya Kulbaka Lejblera Spilna entropiya Stisnennya danih Umovna entropiyaPrimitkiSchneider Thomas D 2006 Claude Shannon Biologist IEEE Engineering in Medicine and Biology Magazine The Quarterly Magazine of the Engineering in Medicine amp Biology Society angl 25 1 30 33 doi 10 1109 memb 2006 1578661 ISSN 0739 5175 PMC 1538977 PMID 16485389 Cruces Sergio Martin Clemente Ruben Samek Wojciech 3 lipnya 2019 Information Theory Applications in Signal Processing Entropy angl 21 7 653 Bibcode 2019Entrp 21 653C doi 10 3390 e21070653 ISSN 1099 4300 PMC 7515149 PMID 33267367 Baleanu D Balas Valentina Emilia Agarwal Praveen red 2023 Fractional Order Systems and Applications in Engineering Advanced Studies in Complex Systems angl London United Kingdom Academic Press s 23 ISBN 978 0 323 90953 2 OCLC 1314337815 27 kvitnya 2016 Claude Shannon Tinkerer Prankster and Father of Information Theory IEEE angl Procitovano 8 listopada 2024 Shi Zhongzhi 2011 Advanced Artificial Intelligence angl World Scientific Publishing s 2 doi 10 1142 7547 ISBN 978 981 4291 34 7 Burnham K P Anderson D R 2002 Model Selection and Multimodel Inference A Practical Information Theoretic Approach angl vid Second New York Springer Science ISBN 978 0 387 95364 9 F Rieke D Warland R Ruyter van Steveninck W Bialek 1997 Spikes Exploring the Neural Code angl The MIT press ISBN 978 0262681087 Delgado Bonal Alfonso Martin Torres Javier 3 listopada 2016 Human vision is determined based on information theory Scientific Reports angl 6 1 36038 Bibcode 2016NatSR 636038D doi 10 1038 srep36038 ISSN 2045 2322 PMC 5093619 PMID 27808236 cf Huelsenbeck J P Ronquist F Nielsen R Bollback J P 2001 Bayesian inference of phylogeny and its impact on evolutionary biology Science angl 294 5550 2310 2314 Bibcode 2001Sci 294 2310H doi 10 1126 science 1065889 PMID 11743192 S2CID 2138288 Allikmets Rando Wasserman Wyeth W Hutchinson Amy Smallwood Philip Nathans Jeremy Rogan Peter K 1998 Thomas D Schneider Michael Dean 1998 Organization of the ABCR gene analysis of promoter and splice junction sequences Gene angl 215 1 111 122 doi 10 1016 s0378 1119 98 00269 8 PMID 9666097 Jaynes E T 1957 Information Theory and Statistical Mechanics Phys Rev angl 106 4 620 Bibcode 1957PhRv 106 620J doi 10 1103 physrev 106 620 S2CID 17870175 Talaat Khaled Cowen Benjamin Anderoglu Osman 5 zhovtnya 2020 Method of information entropy for convergence assessment of molecular dynamics simulations Journal of Applied Physics angl 128 13 135102 Bibcode 2020JAP 128m5102T doi 10 1063 5 0019078 1691442 S2CID 225010720 Bennett Charles H Li Ming Ma Bin 2003 Chain Letters and Evolutionary Histories Scientific American angl 288 6 76 81 Bibcode 2003SciAm 288f 76B doi 10 1038 scientificamerican0603 76 PMID 12764940 Arhiv originalu za 7 zhovtnya 2007 Procitovano 11 bereznya 2008 Arhivovano 2007 10 07 u Wayback Machine David R Anderson 1 listopada 2003 Some background on why people in the empirical sciences may want to better understand the information theoretic methods PDF angl Arhiv originalu PDF za 23 lipnya 2011 Procitovano 23 chervnya 2010 Arhivovano 2011 07 23 u Wayback Machine Loy D Gareth 2017 Pareyon Gabriel Pina Romero Silvia Agustin Aquino Octavio A Lluis Puebla Emilio red Music Expectation and Information Theory The Musical Mathematical Mind Patterns and Transformations Computational Music Science angl Cham Springer International Publishing s 161 169 doi 10 1007 978 3 319 47337 6 17 ISBN 978 3 319 47337 6 procitovano 19 veresnya 2024 Rocamora Martin Cancela Pablo Biscainho Luiz 5 kvitnya 2019 Information Theory Concepts Applied to the Analysis of Rhythm in Recorded Music with Recurrent Rhythmic Patterns Journal of the Audio Engineering Society angl 67 4 160 173 doi 10 17743 jaes 2019 0003 Marsden Alan 2020 New Prospects for Information Theory in Arts Research Leonardo angl 53 3 274 280 doi 10 1162 leon a 01860 ISSN 0024 094X Pinkard Henry Kabuli Leyla Markley Eric Chien Tiffany Jiao Jiantao Waller Laura 2024 Universal evaluation and design of imaging systems using information estimation angl arXiv 2405 20559 physics optics Wing Simon Johnson Jay R 1 lyutogo 2019 Applications of Information Theory in Solar and Space Physics Entropy angl 21 2 140 Bibcode 2019Entrp 21 140W doi 10 3390 e21020140 ISSN 1099 4300 PMC 7514618 PMID 33266856 Kak Subhash 26 listopada 2020 Information theory and dimensionality of space Scientific Reports angl 10 1 20733 doi 10 1038 s41598 020 77855 9 ISSN 2045 2322 Harms William F 1998 The Use of Information Theory in Epistemology Philosophy of Science angl 65 3 472 501 doi 10 1086 392657 ISSN 0031 8248 JSTOR 188281 Gleick 2011 s 3 4 Horgan John 27 kvitnya 2016 Claude Shannon Tinkerer Prankster and Father of Information Theory IEEE angl Procitovano 30 veresnya 2023 Roberts Siobhan 30 kvitnya 2016 The Forgotten Father of the Information Age The New Yorker amer ISSN 0028 792X Procitovano 30 veresnya 2023 Tse David 22 grudnya 2020 How Claude Shannon Invented the Future Quanta Magazine angl Procitovano 30 veresnya 2023 Braverman Mark 19 veresnya 2011 Information Theory in Computer Science PDF angl Reza 1994 Kilivnik V S Smirnova V L Panchishin N Ya 2019 Teoriya informaciyi ta yiyi zastosuvannya v medichnij reabilitaciyi PDF Visnik medichnih i biologichnih doslidzhen ukr TNMU 1 70 75 Arhiv PDF originalu za 6 bereznya 2022 Ash 1990 Zhurakovskij ta Poltorak 2001 s 36 40 Kovalenko 2020 s 38 41 Massey James 1990 Causality Feedback And Directed Information Proc 1990 Intl Symp on Info Th and its Applications angl CiteSeerX 10 1 1 36 5688 Permuter Haim Henry Weissman Tsachy Goldsmith Andrea J February 2009 Finite State Channels With Time Invariant Deterministic Feedback IEEE Transactions on Information Theory angl 55 2 644 662 arXiv cs 0608070 doi 10 1109 TIT 2008 2009849 S2CID 13178 Kramer G January 2003 Capacity results for the discrete memoryless network IEEE Transactions on Information Theory angl 49 1 4 21 doi 10 1109 TIT 2002 806135 Permuter Haim H Kim Young Han Weissman Tsachy June 2011 Interpretations of Directed Information in Portfolio Theory Data Compression and Hypothesis Testing IEEE Transactions on Information Theory angl 57 6 3248 3259 arXiv 0912 4872 doi 10 1109 TIT 2011 2136270 S2CID 11722596 Simeone Osvaldo Permuter Haim Henri June 2013 Source Coding When the Side Information May Be Delayed IEEE Transactions on Information Theory angl 59 6 3607 3618 arXiv 1109 1293 doi 10 1109 TIT 2013 2248192 S2CID 3211485 Charalambous Charalambos D Stavrou Photios A August 2016 Directed Information on Abstract Spaces Properties and Variational Equalities IEEE Transactions on Information Theory angl 62 11 6019 6052 arXiv 1302 3971 doi 10 1109 TIT 2016 2604846 S2CID 8107565 Tanaka Takashi Esfahani Peyman Mohajerin Mitter Sanjoy K January 2018 LQG Control With Minimum Directed Information Semidefinite Programming Approach IEEE Transactions on Automatic Control angl 63 1 37 52 arXiv 1510 04214 doi 10 1109 TAC 2017 2709618 S2CID 1401958 Arhiv originalu za 12 kvitnya 2024 cherez TU Delft Repositories Vinkler Dror A Permuter Haim H Merhav Neri 20 kvitnya 2016 Analogy between gambling and measurement based work extraction Journal of Statistical Mechanics Theory and Experiment angl 2016 4 043403 arXiv 1404 6788 Bibcode 2016JSMTE 04 3403V doi 10 1088 1742 5468 2016 04 043403 S2CID 124719237 Jerry D Gibson 1998 Digital Compression for Multimedia Principles and Standards angl Morgan Kaufmann ISBN 1 55860 369 7 Permuter Haim Henry Weissman Tsachy Goldsmith Andrea J February 2009 Finite State Channels With Time Invariant Deterministic Feedback IEEE Transactions on Information Theory angl 55 2 644 662 arXiv cs 0608070 doi 10 1109 TIT 2008 2009849 S2CID 13178 Bartlett Stephen D Rudolph Terry April June 2007 Reference frames superselection rules and quantum information Reviews of Modern Physics angl 79 2 555 606 arXiv quant ph 0610030 Bibcode 2007RvMP 79 555B doi 10 1103 RevModPhys 79 555 Peres A P F Scudo 2002b A Khrennikov red Quantum Theory Reconsideration of Foundations angl Vaxjo University Press Vaxjo Sweden s 283 Haggerty Patrick E 1981 The corporation and innovation Strategic Management Journal angl 2 2 97 118 doi 10 1002 smj 4250020202 Nauta Doede 1972 The Meaning of Information angl The Hague Mouton ISBN 9789027919960 Noth Winfried January 2012 Charles S Peirce s theory of information a theory of the growth of symbols and of knowledge Cybernetics and Human Knowing angl 19 1 2 137 161 Noth Winfried 1981 Semiotics of ideology Semiotica angl Issue 148 Maurer H 2021 Chapter 10 Systematic Class of Information Based Architecture Types Cognitive Science Integrative Synchronization Mechanisms in Cognitive Neuroarchitectures of the Modern Connectionism angl Boca Raton FL CRC Press doi 10 1201 9781351043526 ISBN 978 1 351 04352 6 Edelman G M Tononi G 2000 A Universe of Consciousness How Matter Becomes Imagination angl New York Basic Books ISBN 978 0465013777 Tononi G Sporns O 2003 Measuring information integration BMC Neuroscience angl 4 1 20 doi 10 1186 1471 2202 4 31 PMC 331407 PMID 14641936 Tononi G 2004a An information integration theory of consciousness BMC Neuroscience angl 5 1 22 doi 10 1186 1471 2202 5 42 PMC 543470 PMID 15522121 Tononi G 2004b Consciousness and the brain theoretical aspects U Adelman G Smith B red Encyclopedia of Neuroscience angl vid 3rd Amsterdam Oxford Elsevier ISBN 0 444 51432 5 Arhiv PDF originalu za 2 grudnya 2023 Friston K Stephan K E 2007 Free energy and the brain Synthese angl 159 3 417 458 doi 10 1007 s11229 007 9237 y PMC 2660582 PMID 19325932 Friston K 2010 The free energy principle a unified brain theory Nature Reviews Neuroscience angl 11 2 127 138 doi 10 1038 nrn2787 PMID 20068583 Friston K Breakstear M Deco G 2012 Perception and self organized instability Frontiers in Computational Neuroscience angl 6 1 19 doi 10 3389 fncom 2012 00044 PMC 3390798 PMID 22783185 Friston K 2013 Life as we know it Journal of the Royal Society Interface angl 10 86 20130475 doi 10 1098 rsif 2013 0475 PMC 3730701 PMID 23825119 Kirchhoff M Parr T Palacios E Friston K Kiverstein J 2018 The Markov blankets of life autonomy active inference and the free energy principle Journal of the Royal Society Interface angl 15 138 20170792 doi 10 1098 rsif 2017 0792 PMC 5805980 PMID 29343629 Johnston Simon Hanser Sean F February 2011 Information theory animal communication and the search for extraterrestrial intelligence Acta Astronautica angl 68 3 4 406 417 Bibcode 2011AcAau 68 406D doi 10 1016 j actaastro 2009 11 018 LiteraturaKlasichni praci Shannon C E 1948 A Mathematical Theory of Communication Bell System Technical Journal angl 27 pp 379 423 amp 623 656 July amp October 1948 PDF Primitki ta inshi formati R V L Hartley Transmission of Information Bell System Technical Journal angl July 1928 Andrey Kolmogorov 1968 Three approaches to the quantitative definition of information in inshi movi angl 2 pp 157 168 Kolmogorov A N 1965 Tri podhoda k opredeleniyu ponyatiya kolichestvo informacii Probl peredachi inform ros 1 1 3 11 Arhiv originalu za 26 chervnya 2017 Inshi zhurnalni statti J L Kelly Jr Princeton A New Interpretation of Information Rate Bell System Technical Journal angl Vol 35 July 1956 pp 917 26 R Landauer IEEE org Information is Physical Proc Workshop on Physics and Computation PhysComp 92 angl IEEE Comp Sci Press Los Alamitos 1993 pp 1 4 Landauer R 1961 Irreversibility and Heat Generation in the Computing Process PDF IBM J Res Dev angl 5 3 183 191 doi 10 1147 rd 53 0183 Timme Nicholas Alford Wesley Flecker Benjamin Beggs John M 2012 Multivariate information measures an experimentalist s perspective angl arXiv 1111 6857 cs IT Pidruchniki z teoriyi informaciyi Alajaji F and Chen P N An Introduction to Single User Information Theory angl Singapore Springer 2018 ISBN 978 981 10 8000 5 Arndt C Information Measures Information and its Description in Science and Engineering angl Springer Series Signals and Communication Technology 2004 ISBN 978 3 540 40855 0 Ash Robert B 1990 1965 Information Theory angl New York Dover Publications Inc ISBN 0 486 66521 6 Gallager R Information Theory and Reliable Communication angl New York John Wiley and Sons 1968 ISBN 0 471 29048 3 Goldman S Information Theory angl New York Prentice Hall 1953 New York Dover 1968 ISBN 0 486 62209 6 2005 ISBN 0 486 44271 3 Cover Thomas Thomas Joy A 2006 Elements of information theory angl vid 2nd New York Wiley Interscience ISBN 0 471 24195 4 Csiszar I Korner J Information Theory Coding Theorems for Discrete Memoryless Systems angl Akademiai Kiado 2nd edition 1997 ISBN 963 05 7440 3 inshi movi Information Theory Inference and Learning Algorithms angl Cambridge Cambridge University Press 2003 ISBN 0 521 64298 1 Mansuripur M Introduction to Information Theory angl New York Prentice Hall 1987 ISBN 0 13 484668 0 inshi movi The Theory of Information and Coding angl Cambridge 2002 ISBN 978 0521831857 Pierce JR An introduction to information theory symbols signals and noise angl Dover 2nd Edition 1961 perevidano Dover 1980 1994 1961 An Introduction to Information Theory angl New York Dover Publications Inc ISBN 0 486 68210 2 Shannon Claude Weaver Warren 1949 The Mathematical Theory of Communication PDF angl Urbana Illinois University of Illinois Press ISBN 0 252 72548 4 LCCN 49 11922 Stone JV Chapter 1 of book Information Theory A Tutorial Introduction angl University of Sheffield England 2014 ISBN 978 0956372857 Yeung RW A First Course in Information Theory angl Kluwer Academic Plenum Publishers 2002 ISBN 0 306 46791 7 Yeung RW Information Theory and Network Coding angl Springer 2008 2002 ISBN 978 0 387 79233 0 Ukrayinskoyu Zhurakovskij Yu P Poltorak V P 2001 Teoriya informaciyi ta koduvannya PDF ukr Kiyiv Visha shkola Zhurakovskij Yu P Gnilickij V V 2002 Teoriya informaciyi ta koduvannya v zadachah Navchalnij posibnik ukr Zhitomir ZhITI Arhiv originalu za 23 lipnya 2024 Kozhevnikov V L Kozhevnikov A V 2012 Teoriya informaciyi ta koduvannya PDF ukr Dnipro NGU Arhiv originalu PDF za 25 bereznya 2022 Kovalenko A Ye 2020 Teoriya informaciyi i koduvannya kurs lekcij PDF ukr Kiyiv KPI Arhiv PDF originalu za 26 lipnya 2023 Gusyev O Yu Konahovich G F Korniyenko V I Kuznecov G V Puzirenko O Yu 2010 Teoriya elektrichnogo zv yazku Navchalnij posibnik PDF ukr Lviv Magnoliya 2006 ISBN 978 966 2025 97 2 Arhiv PDF originalu za 18 travnya 2024 Bilinskij J J Ogorodnik K V Yukish M J 2011 Elektronni sistemi Navchalnij posibnik PDF ukr Vinnicya VNTU Arhiv PDF originalu za 29 chervnya 2024 Partiko Z V 2001 Obrazna koncepciya teoriyi informaciyi ukr angl Lviv LNU ISBN 966 613 046 7 Inshi knigi Leon Brillouin Science and Information Theory angl Mineola N Y Dover 1956 1962 2004 ISBN 0 486 43918 6 2011 Informaciya istoriya teoriya potik The Information A History a Theory a Flood d Q7742005 sitelinks wikipedia inshi movi Kategoriya Vikipediya Zapiti na pereklad angl vid 1st New York Vintage Books ISBN 978 1 4000 9623 7 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite book title Shablon Cite book cite book a Nazva URL mistit vbudovane vikiposilannya dovidka A I Khinchin Mathematical Foundations of Information Theory angl New York Dover 1957 ISBN 0 486 60434 9 H S Leff and A F Rex Editors Maxwell s Demon Entropy Information Computing angl Princeton University Press Princeton New Jersey 1990 ISBN 0 691 08727 X inshi movi What is Information Propagating Organization in the Biosphere the Symbolosphere the Technosphere and the Econosphere angl Toronto DEMO Publishing Tom Siegfried The Bit and the Pendulum angl Wiley 2000 ISBN 0 471 32174 5 inshi movi inshi movi angl Viking 2006 ISBN 0 670 03441 X Jeremy Campbell inshi movi angl Touchstone Simon amp Schuster 1982 ISBN 0 671 44062 4 Henri Theil Economics and Information Theory angl Rand McNally amp Company Chicago 1967 Escolano Suau Bonev Information Theory in Computer Vision and Pattern Recognition angl Springer 2009 ISBN 978 1 84882 296 2 Vlatko Vedral Decoding Reality The Universe as Quantum Information angl Oxford University Press 2010 ISBN 0 19 923769 7PosilannyaVikicitati mistyat vislovlyuvannya vid abo pro Teoriya informaciyi Hazewinkel Michiel red 2001 Information Matematichna enciklopediya Springer ISBN 978 1 55608 010 4 Lambert F L 1999 Shuffled Cards Messy Desks and Disorderly Dorm Rooms Examples of Entropy Increase Nonsense Journal of Chemical Education angl IEEE Information Theory Society ta Monografiyi oglyadi ta recenziyi ITSOC Arhivovano 2018 06 12 u Wayback Machine angl