Az információelmélet fejlődésének idővonala
Az információelmélethez , az adattömörítéshez , a hibajavító kódokhoz és a kapcsolódó szakterületekhez kapcsolódó
események idővonala :
- 1924 – Harry Nyquist beszél az "intelligencia" számszerűsítéséről és arról, hogy milyen sebességgel tudja azt egy kommunikációs rendszerrel továbbítani.
- 1927 – John von Neumann meghatározza a von Neumann entrópiát , kiterjesztve a Gibbs-entrópiát a kvantummechanikában.
- 1928 – Ralph Hartley bevezeti a Hartley- képletet a lehetséges üzenetek számának logaritmusaként, azzal az információval, amelyet akkor továbbítanak, amikor a fogadó (vevő, vevő) meg tudja különböztetni az egyik karaktersorozatot a többitől (függetlenül a kapcsolódó értéktől).
- 1951 – David Huffman feltalálja a Huffman- kódolást , egy módszert az optimális előtagkódok megtalálására a veszteségmentes adattömörítéshez.
- 1953 – Sardinas-Patterson algoritmus közzététele .
- 1966 – Megjelent David Fornay összefűzött hibajavító kódja .
- 1972 – Megjelent egy cikk a Justesen kódról .
- 1973 - David Slepian és Jack Wolf felfedezik és bebizonyítják a Slepian-Wolf Code kódolását, amely egy elosztott kódforrás korlátait kódolja .
- 1993 – Claude Burrow , Alain Glaviux és Punya Thitimajshima bevezeti a Turbo kódok fogalmát .
- 1998 Fountain Code javasolt .
- 2001 - a Statistical Lempel–Ziv algoritmus leírása .
A hazai tudósok hozzájárulása az információelmélethez
- 1947 - V. A. Kotelnikov megalkotta a lehetséges zajtűrés elméletét. A potenciális zajtűrés elmélete lehetővé tette az optimális eszközök szintetizálását bármilyen jel feldolgozására zaj jelenlétében. Két részből állt - a diszkrét és analóg jelek vételének elmélete.
- 1950 - A konkrét kódok és az optimális kódok összehasonlításakor R. R. Varshamov eredményeit széles körben használják . A hibajavítás lehetőségeinek érdekes új határait V. I. Levenshtein és V. M. Szidelnyikov szabta meg.
- 1956 – Matematikai munkára volt szükség, amely lefektette az információelmélet matematikai alapjait. A problémát A. N. Kolmogorov jól ismert jelentése a Szovjetunió Tudományos Akadémiájának a termelés automatizálásának szentelt ülésén oldotta meg. A. Ya. Khinchin első úttörő munkái az információelmélet alapvető tételeinek bizonyítására irányultak a diszkrét esetre.
- 1957 - amikor A. N. Kolmogorov a szuperpozíciókra vonatkozó híres Hilbert-problémát tanulmányozta , nemcsak megmutatta annak lehetőségét, hogy bármilyen folytonos függvényt három változó folytonos függvényeinek szuperpozíciójaként ábrázoljon, hanem olyan módszert is megalkotott, amely lehetővé tette tanítványa, V. I. Arnold számára, hogy csökkentse a szuperpozíciók számát. változókat kettőre, és ezzel megoldja az említett problémát.
- 1958 - A. N. Kolmogorov . A tranzitív dinamikai rendszerek és a Lebesgue -terek automorfizmusainak új metrikus invariánsa DAN SSSR. Nagyon fontos és gyümölcsöző lehetőségek az entrópia fogalmának alkalmazásában a dinamikus rendszerek izomorfizmusának problémájában.
- 1958 - I. M. Gelfand , A. N. Kolmogorov , A. M. Yaglom jelentése "Az információ mennyisége és az entrópia folyamatos eloszlások esetén." - A könyvben: Tr. III Szövetségi matematika. Kongresszus. M.: A Szovjetunió Tudományos Akadémia Kiadója.
Megjegyezzük Hu Guo Ding kínai tudós munkáját is , aki akkoriban próbaidőn volt a Moszkvai Egyetemen.
- 1961 – Hu Guo Ding . Három inverz tétel Shannon információelméletbeli tételéhez.
- 1962 – Hu Guo Ding . A csatornasorozat információs stabilitásáról. Valószínűségszámítás és alkalmazásai.
- 1966 - Stratonovich R. L. , Grishanin B. A. "Az információ értéke, amikor lehetetlen közvetlenül megfigyelni a becsült valószínűségi változót."
- 1968 - Stratonovich R. L., Grishanin B. A. "Játékproblémák az információtípus megszorításaival."
- 1972 – Solev V. N. Az egyik Gauss-féle stacionárius folyamatban egy másikhoz viszonyított átlagos információmennyiség egységnyi idő alatt.