Syntaxe a sémantika komunikace: Porovnání verzí

Řádek 19: Řádek 19:
 
Informace jsou kódovaná data, kterým rozumíme a mají pro nás nějaký smysl. Mají potenciál vést nebo aktuálně vedou k vytvoření znalosti.
 
Informace jsou kódovaná data, kterým rozumíme a mají pro nás nějaký smysl. Mají potenciál vést nebo aktuálně vedou k vytvoření znalosti.
 
[[Informace|Teorie informace]] se zabývá přenosem, kódováním a měřením informace. Jejím úkolem je zajistit neporušenost zprávy.
 
[[Informace|Teorie informace]] se zabývá přenosem, kódováním a měřením informace. Jejím úkolem je zajistit neporušenost zprávy.
Teorie informace – její plný rozvoj jako vědního oboru nastal až po druhé světové válce přičiněním zejména [[Shannonův a Weaverův model|C. E. Shannona]], R. A. Fishera, [[N. Wienera]] aj. Tímto okamžikem vznikl nový vědní obor a nastala nová fáze vědeckého studia informace.
+
Teorie informace – její plný rozvoj jako vědního oboru nastal až po druhé světové válce přičiněním zejména [[Claude Shannon|C. E. Shannona]], R. A. Fishera, [[Norbert Wiener|N. Wienera]] aj. Tímto okamžikem vznikl nový vědní obor a nastala nová fáze vědeckého studia informace.
  
 
==== Statistická teorie informace ====
 
==== Statistická teorie informace ====

Verze z 5. 2. 2015, 17:30

Základní komunikační schéma

  Zdroj informace → Kodér → Přenos → Dekodér → Příjem informace
                                   ↑
                                   ↑
                                  Šum


ZI: zdroj informace (člověk, stroj, příroda)
Kodér: informace je zakódována do vysílaného signálu (zpráva)
Přenos: zakódovaná zpráva je rušena Šumem (např. vnější vlivy)
Dekodér: dekódování odkódované zprávy (písmo a další znakové soustavy)
PI: příjem informace (např. Posluchač) [1]

Výklad pojmu informace

Informace jsou kódovaná data, kterým rozumíme a mají pro nás nějaký smysl. Mají potenciál vést nebo aktuálně vedou k vytvoření znalosti. Teorie informace se zabývá přenosem, kódováním a měřením informace. Jejím úkolem je zajistit neporušenost zprávy. Teorie informace – její plný rozvoj jako vědního oboru nastal až po druhé světové válce přičiněním zejména C. E. Shannona, R. A. Fishera, N. Wienera aj. Tímto okamžikem vznikl nový vědní obor a nastala nová fáze vědeckého studia informace.

Statistická teorie informace

Informace je kvantitativně měřitelná veličina. Shannonovská míra hodnoty informace.
Statistické postupy – hromadné jevy, výběrová šetření a jejich význam, grafická znázornění. Interpretace výsledků. [2]

Informace jsou:

data
správně uspořádaná
smysluplná
nahodile pravdivá
přinášející nový poznatek
relevantní
použitelná[3]

V současné době se výraz „informace“ používá ve čtyřech základních významech jako

1) početní míra odstranění neuspořádanosti (entropie), míra organizace v systému;
2) psychofyziologický jev a proces v lidském vědomí;
3) signály, impulzy a obrazy cirkulující v technických zařízeních
4) výraz různorodosti v objektech a procesech živé, popř. i neživé přírody [4]

Kódování

Kódování je převedení informace do zadaného kódu, nebo z jednoho kódu do druhého kódu. Pro uložení informace použijeme vždy nějaké kódování a následně jej převedeme do tzv. binárního kódu. Binární kódování je číselná soustava, která používá pouze dva symboly: 0 a 1. Dvojková soustava neboli soustava binární je poziční číselná soustava mocnin čísla 2. Číslo, které je zapsané v dvojkové soustavě se nazývá binární číslo.

Měření informace

Všechny informace a data jsou v PC matematicky zpracovávány popř. uloženy v podobě obrovského množství kombinací elektronických obvodů. Základní jednotka informace: 1b - bit (basic information unit) - znázorňuje 2 možné hodnoty rozhodování (ano×ne, pravda×nepravda, 0×1 apod.) 0×1 (dvojková číselná soustava) – matematické vyjádření bitu, používají počítače (el. přepínače)

Klopné obvody v přepínači:

1B (byte) = 8b (bit)
1 KB (kilo) = 1024 B
1 MB (mega) = 1024
1 KB= 1 024 000 B
1 GB (giga) = 1024 MB = 1 024 000 000 B
1 TB (tera) = 1024 GB = 1 024 000 000 000 B
1 b – jedna varianta ze dvou možností (1,0)
1 B – jedna varianta z 256 možností (28 = 256) [5]

Samoopravné kódy

Hammingův kód je důležitým lineárním binárním kódem se schopností opravy chyb. Jeho vlastnosti jsou dány kódovou vzdáleností dmin=3. (Vznikají tedy výběrem jedné osminy slov z přirozeného binárního kódu.) Kód s minimální vzdáleností 3 detekuje až dvojnásobnou chybu nebo opravuje jednonásobnou chybu. Hammingovy kódy se snadno dekódují a jsou perfektní, tj. mají nejmenší myslitelnou redundanci.[6]

Odkazy

Reference

[1] SOUČEK, Martin. UK UISK modul č. 3 - Informační věda, v rámci projektu Studium informační vědy a komunikačního managementu v evropském kontextu. Dostupné z:http://www.informacniveda.cz/article.do?articleId=1130
[2] Königová, Marie. Vybrané kapitoly z informační vědy. Informační studia a knihovnictví v elektronických textech [online]. Praha. 2014. Dostupné z www:<(http://texty.jinonice.cuni.cz)>
[3] STODOLA, Jiří. Pojem informace pro informační vědu. ProInflow [online]. 31.10.2013 [cit. 31.01.2015]. Dostupný z WWW: <http://pro.inflow.cz/pojem-informace-pro-informacni-vedu>. ISSN 1804–2406.
[4]Cejpek, Jiří. Informace, komunikace a myšlení. Karolinum, Praha 1998. 179 s. ISBN 80-7184-767-4.
[5] Jílek, Jan. Informatika: Úvod do informatiky a OS [online]. Zábřeh: Říjen, 2011 [cit. 31. 1. 2015]. Dostupné z <http://www..bozenka.cz/docs/ucitele/jilek/01.pdf >
[6] Jančařík, Antonín. Pro učitele matematiky. Algebra v matematice.[cit. 31. 1. 2015]. Dostupné z <http://class.pedf.cuni.cz/jancarik/download/hamming.pdf >

Použitá literatura

Klíčová slova

informace, komunikační schéma, kódování, přenos zpráv