Citazione:
Originalmente inviato da mpresi si, appunto, per quanto ci è dato sapere non è logaritmico (su ACCST). Più che una forma di BER (Bit Error Ratio) è una misura del rapporto della percentuale di pacchetti corrotti sul totale dei pacchetti ricevuti nell'unità di tempo (lost frames rate). Quale sia la formula con cui i due dati vengono "miscelati" non è dato sapere....
Il sensore di cui sopra, misura il numero di pacchetti corrotti in tempo reale. La misura, è fatta in questo modo: la trasmittente viene programmata in modo da generare su un canale una forma d'onda triangolare che si ripete all'infinito. Il sensore confronta la forma d'onda triangolare con quella attesa, ed in base a questo confronto determina quanti pacchetti non sono stati ricevuti correttamente. Parlo di pacchetti, non di bit, perchè se c'è un errore, il protocollo scarta tutto il pacchetto.
Su rcgroups il metodo è descritto molto dettagliatamente.
Approfitto per "pubblicizzare" una campagna di test che stiamo effettuando con altri amici di rcgroups. E' una prova molto semplice, che richiede una ventina di minuti principalmente per scopi "statistici".
Chi è interessato mi mandi un messaggio privato (@davinja, nel pomeriggio ti chiamo e te ne parlo).
Ciao Ciao
Marco |
Interessante.
Ci guarderò bene, non capisco una cosa però: se misuri l’uscita di un canale di fatto stai misurando degli eventi di interferenza. I transceiver per forza di cosa filtra i pacchetti persi, altrimenti che senso ha ?
Mi sono perso qualcosa?
Sent from my iPhone using Tapatalk