[:it]Sorgente aletoria numerica senza memoria[:]

[:it]

Franz Marc

La sorgente aleatoria numerica viene anche definita una sorgente aleatoria discreta, essere senza memoria significa che i simboli sono indipendenti ed identicamente distribuiti estratti da un alfabeto A di dimensione finita L.

Quindi ogni simbolo ha una certa probabilità di essere emesso.

In inglese esso è definito come:

Discrete Memoryless source, DMS[:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Esercizi sulla caratterizzazione di un canale[:]

[:it]

Charles S. Raleigh

Tutti questi esercizi possono essere risolti mediante l’applicazione delle relazioni definite nei posti precedenti sulla definizione di informazione, entropia, lunghezza di un messaggio, ridondanza.

1. Una sorgente discreta emette i simboli x_{1},x_{2},x_{3},x_{4},x_{5} aventi probabilità rispettivamente p_{1}=0,2,p_{2}=0,25,p_{3}=0,3,p_{4}=0,1,p_{5}=0,15.

Determinare l’informazione associata a ciascun simbolo e l’entropia della sorgente

\left [H=2,23\cfrac{bit}{sym} \right ]
2.  Calcola la ridondanza di una sorgente binaria discreta le cui probabilità di emissione sono p_{1}=0,35,p_{2}=0,65 \left [ \gamma =0,07\cfrac{bit}{sym} \right ]
3. Una sorgente discreta emette 5 simboli con probabilità p_{1}=0,15,p_{2}=0,2,p_{3}=0,4,p_{4}=0,2,p_{5}=0,05.

a) Calcola la ridondanza della sorgente

b) La lunghezza del codice necessaria ad effettuare una corretta codifica della sorgente.

\left [ L=2,32,\gamma =0,1\cfrac{bit}{sym} \right ]
4. Si ha una sorgente di 6 simboli discreti con ridondanza \gamma =0,4\cfrac{bit}{sym}; calcola:

a) L’entropia

b) la lunghezza del codice

c) l’efficienza della codifica

\left [H =1,58\cfrac{bit}{sym}; \eta=0,6\cfrac{bit}{sym},L =2,581 ]
5. Una sorgente ha alfabeto di n=4 simboli con le seguenti probabilità di emissione:

simbolo x_{1} x_{2} x_{3} x_{4}
probabilità 0.38 0,25 0,22 0,15

a) Calcola l’entropia della sorgente

b)Calcola il contenuto informativo dei due seguenti messaggi:

M_{1}=x_{1}x_{4}x_{1}x_{2} e M_{1}=x_{2}x_{3}x_{1}x_{3}

 \left [ H=1,922\cfrac{bit}{sym},I_{M_{1}}=7,528bit ,I_{M_{2}}=7,764bit \right ]
6. Una sorgente ha un alfabeto di n=7 simboli con le seguenti probabilità di emissione:

simbolo probabilità codice
x_{1} 0,32 00
x_{2} 0,23 01
x_{3} 0,13 100
x_{4} 0,1 101
x_{5} 0,09 110
x_{6} 0,08 1110
x_{7} 0,05 1111

Calcola la lunghezza media del codice

 \left [ L=2,58 \right ]
7. Una sorgente discreta emette 3 simboli statisticamente indipendenti; sapendo che p_{1}=0,45, p_{2}=0,25, calcolare la ridondanza \gamma. \gamma =0,03 \cfrac{bit}{sym}
8. Un alfabeto è costituito da 2 simboli \left \{ x_{1},x_{2} \right \} equiprobabili.

IL tempo impiegato per trasmettere il primo simbolo è T\left ( x_{1} \right )=50\mu s mentre T\left ( x_{2} \right )=75\mu s, calcolare:

a) l’entropia della sorgente

b) il tempo medio per trasmettere un simbolo

c) la velocità di trasmissione

\left [ H=1,548 \cfrac{bit}{sym},T_{s}=62,5\mu s, R=16\frac{kbit}{s} \right ]

 [:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Prove di maturità indirizzo informatica e telecomunicazioni[:]

[:it]Anno2015

Anno2017[:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Lunghezza media di un codice, efficienza e ridondanza[:]

[:it]

Vladimir Kush

La lunghezza media di un codice è data da quanti simboli in media sono necessari per mandare un messaggio con tali simboli ossia:

L=\sum_{j=1}^{n}p_{j}log_{2}(n)

dove con n è il numero di simboli.

oppure se si conosce la lunghezza del codice:

L=\sum_{i=1}^{n}p_{i}l_{i}

Per efficienza si intende:

\eta =\cfrac{H}{L}

Per ridondanza si intende quindi

\gamma =1-\eta

ossia quanto più una sorgente ha una grande entropia (ossia fornisce molte informazioni) con un alfabeto molto basso, minore è la ridondanza ossia la necessità di trasmettere segnali simili nel canale trasmissivo.[:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Entropia – velocità di trasmissione[:]

[:it]

Vladimir Kush

Che cos’è l’entropia di una sorgente?

E’ il massimo grado di informazione che può darci un opportuno codice.

In fisica l’entropia fornisce il grado di disordine di un particolare sistema, nella teoria dell’informazione quanto più un codice ha un’elevata entropia quanta più informazione esso potrà portare.

Nella teoria della probabilità, quando due eventi sono statisticamente indipendenti la probabilità che uno accada in seguito all’altro è dato dal prodotto delle loro probabilità ossia: (principio delle probabilità composte)

P(A \cap B)=P(B) \cdot P(A)

L’unica funzione matematica che dal prodotto permette di passare alla somma è ancora il logaritmo per cui esso compare ancora nella definizione di entropia:

H=\sum_{j=1}^{n}p_{j}log_{2}\cfrac{1}{p_{j}}

L’unità di misura dell’entropia è il bit/carattere.

La velocità di trasmissione viene definita non come la frequenza con cui si trasmette ma come il prodotto tra l’entropia e la frequenza dei simboli emessi.[:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Definizione di informazione[:]

[:it]

Vladimir Kush

L’informazione, nell’ambito delle telecomunicazioni,  viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso.

Sembra un panegirico ma, in realtà, il concetto è che se io trasmetto sempre un solo segnale sempre uguale, la probabilità di riceverlo è sempre 1. Ma tale fatto significa anche che l’informazione trasmessa è nulla.

Per trasmettere un’informazione vi è bisogno che si modifichi uno stato da luce a buio o viceversa; si pensi ai solo caratteri morse: per comunicare un messaggio, ossia un’informazione, si alternano i punti con le linee in un’opportuna combinazione.

Per dare una definizione che possa essere misurabile si utilizza la funzione logaritmo perché è l’unica che quando il suo argomento vale 1, il suo valore va a zero ed inoltre lo si caperà ancora di più quando si definisce l’entropia.

I=\log _{b}\cfrac{1}{p_{i}}

dove con p_{i} si intende la probabilità con cui quel simbolo possa presentarsi.

Se la base del logaritmo è:

  • 2 l’informazione si misura in bit
  • 10 l’informazione si misura in hartley
  • e (numero di Eulero) l’informazione si misura in nat

[:en]trasmesso e viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso.
Sembra un panegirico ma, in realtà, il concetto è che se io trasmetto sempre un solo segnale sempre uguale, la probabilità di riceverlo è sempre 1. Ma tale fatto significa anche che l’informazione trasmessa è nulla.
Per trasmettere un’informazione vi è bisogno che si modifichi uno stato da luce a buio o viceversa; si pensi ai solo caratteri morse: per comunicare un messaggio, ossia un’informazione, si alternano i punti con le linee in un’opportuna combinazione.
Per dare una definizione che possa essere misurabile si utilizza la funzione logaritmo perché è l’unica che quando il suo argomento vale 1, il suo valore va a zero ed inoltre lo si caperà ancora di più quando si definisce l’entropia.
I=\log _{b}\cfrac{1}{p_{i}}
dove con p_{i} si intende la probabilità con cui quel simbolo possa presentarsi.
Se la base del logaritmo è:
2 l’informazione si misura in bit
10 l’informazione si misura in hartley
e (numero di Eulero) l’informazione si misura in nat[:de]trasmesso e viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso.
Sembra un panegirico ma, in realtà, il concetto è che se io trasmetto sempre un solo segnale sempre uguale, la probabilità di riceverlo è sempre 1. Ma tale fatto significa anche che l’informazione trasmessa è nulla.
Per trasmettere un’informazione vi è bisogno che si modifichi uno stato da luce a buio o viceversa; si pensi ai solo caratteri morse: per comunicare un messaggio, ossia un’informazione, si alternano i punti con le linee in un’opportuna combinazione.
Per dare una definizione che possa essere misurabile si utilizza la funzione logaritmo perché è l’unica che quando il suo argomento vale 1, il suo valore va a zero ed inoltre lo si caperà ancora di più quando si definisce l’entropia.
I=\log _{b}\cfrac{1}{p_{i}}
dove con p_{i} si intende la probabilità con cui quel simbolo possa presentarsi.
Se la base del logaritmo è:
2 l’informazione si misura in bit
10 l’informazione si misura in hartley
e (numero di Eulero) l’informazione si misura in nat[:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Esercizi sulle probabilità[:]

[:it]

1. Lanciando due monete qual è la probabilità di ottenere due teste? \left [\cfrac{1}{4}\right ]
2. Si lanciano due dadi. Trova la probabilità che escano due 3; che escano un 3 e un 4; che escano due numeri pari. \left [\cfrac{1}{36},\cfrac{1}{18},\cfrac{1}{4}\right ]
3. Calcola la probabilità che lanciando una moneta esca testa \left [\cfrac{1}{2}\right ]
4. Calcola la probabilità che lanciando 1 dado esca il numero 1. \left [\cfrac{1}{6}\right ]
5. Calcola la probabilità che lanciando 1 dado esca un numero divisibile per 2 \left [\cfrac{1}{2}\right ]
6. Determina la probabilità che, lanciando 3 volte di seguito 1 moneta, si verifichi l’evento “esca almeno una croce”, sapendo che il primo lancio ha dato testa. \left [\cfrac{3}{4}\right ]
7. Da un’urna contenente 9 palline nere e 7 bianche si estraggono successivamente 3 palline, rimettendo ogni volta nell’urna la pallina estratta. Qual è la probabilità che siano tutte e tre nere? Che siano tutte e 3 bianche? Che siano le prime 2 bianche e la terza nera? Che siano  bianche e 1 nera? \left ( \cfrac{9}{16} \right )^{3};\left ( \cfrac{7}{16} \right )^{3};\left ( \cfrac{7}{16} \right )^{2}\cdot \cfrac{9}{16};3\cdot \left ( \cfrac{7}{16} \right )^{2}\cdot \cfrac{9}{16}

 [:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Probabilità del prodotto logico: principio delle probabilità composte[:]

[:it]

Samy Charnine

Dal post sulle probabilità condizionate si è affermato che:

P(A/B)=\cfrac{P(A \cap B)}{P(B)}

che è uguale a scrivere:

P(A \cap B)=P(B) \cdot P(A/B)

ma nel caso in cui si abbiano eventi indipendenti

P(A/B)=P(A)

per cui si ha il principio delle probabilità composte ossia

P(A \cap B)=P(B) \cdot P(A)

Questa relazione è alla base della definizione di Entropia nell’ambito delle telecomunicazioni.

Esempio di applicabilità

Si vuole sapere qual è la probabilità che esca testa, nel lancio di una moneta due volte, sapendo che prima è uscita testa.

In questo caso si è in presenza di eventi indipendenti per cui la probabilità che esca testa al primo lancio è \cfrac{1}{2}, la probabilità che esca nuovamente testa è \cfrac{1}{2}, per cui la probabilità che in due lanci mi esca due volte testa vale \cfrac{1}{2} \cdot \cfrac{1}{2}=\cfrac{1}{4}.[:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Eventi dipendenti o indipendenti[:]

[:it]

Samy Charnine

Due eventi sono indipendenti se il verificarsi dell’uno non influisce sul calcolo della probabilità del verificarsi dell’altro

Due eventi sono dipendenti se il verificarsi dell’uno influisce sul calcolo della probabilità del verificarsi dell’altro.

Sono molto importanti queste due definizioni perché influiscono moltissimo nel caso in cui dovessi prevedere la trasmissione di un messaggio e quindi la necessità di trasmetterlo solo una volta o ritrasmetterlo.

Il primo esempio di eventi indipendenti potrebbe essere quello dell’estrazione di una pallina bianca da un’urna contente palline bianche e nere. In questo caso se dopo l’estrazione rimetto all’interno la pallina bianca estratta avrò eventi INDIPENDENTI ossia calcolare la probabilità di estrarre un’altra pallina bianca non dipende dall’estrazione precedente.

Se invece la pallina bianca non viene reintrodotta dall’urna allora tale fatto ha reso dipendente l’estrazione successiva da quella precedente.[:]

Pubblicato in Senza categoria | Lascia un commento

[:it]Probabilità subordinata o condizionata[:]

[:it]

Samy Charnine

E’ il caso in cui spesso si può trovare anche nell’ambito delle telecomunicazioni; se nella trasmissione di un fax , qual è la probabilità che essendo stato trasmesso un carattere bianco si possa avere un altro carattere bianco o un carattere nero?

In questo caso si è quindi nella situazione di probabilità subordinata o condizionata.

La probabilità che capiti l’evento A in seguito al fatto che si è verificato l’evento B è detta probabilità subordinata o probabilità condizionata e si indica con P(A/B) e si legge probabilità di A dato che si è verificato B.

Si può dimostrare facilmente che si calcola nella seguente maniera:

P(A/B)=\cfrac{P\left ( A \cap B\right )}{P(B)}

dove con A \cap B si intende intersezione dei due eventi

in maniera analoga

P(B/A)=\cfrac{P\left ( A \cap B\right )}{P(A)}.

Esempio:

E’ stata lanciata una moneta 3 volte ( o lanciate 3 monete in una volta sola). Qual è la probabilità che siano uscite tutte con la stessa faccia, sapendo che sono uscite meno di 2 teste?

La prima cosa che faccio è analizzare tutti i casi possibili del lancio di una moneta con i relativi risultati (esso si chiama spazio campionario o spazio degli eventi).

e_{1}=(TTT),e_{2}=(TTC),e_{3}=(TCT),e_{4}=(TTT),e_{5}=(TCC),e_{6}=(CTC),e_{7}=(CCT),e_{8}=(CCC)

L’evento monete tutte con la stessa faccia A={e_{1},e_{8}}

L’evento monete su tre lanci almeno due teste B={e_{5},e_{6},e_{7},e_{8}}

P(A/B)=\cfrac{P(A \cap B)}{P(B)}=\cfrac{\cfrac{1}{8}}{\cfrac{4}{8}}=\cfrac{1}{4}[:]

Pubblicato in Senza categoria | Lascia un commento