Datasets:

Modalities:
Text
Formats:
parquet
Libraries:
Datasets
pandas
wikipedia_passage_concept_A
stringlengths
490
29.6k
concept_A
stringlengths
6
37
wikipedia_passage_concept_B
stringlengths
490
29.6k
concept_B
stringlengths
6
37
target
int64
0
1
è un termine utilizzato in statistica per definire, in un insieme di osservazioni, un valore anomalo e aberrante. Un valore quindi chiaramente distante dalle altre osservazioni disponibili. In statistica viene definito outlier un valore al di fuori dall'intervallo: Dove formula_2 e formula_3 sono rispettivamente primo e terzo quartile. formula_4 è una costante che regola l'ampiezza dell'intervallo. Normalmente assume il valore unitario. Gli outlier sono valori numericamente distanti dal resto dei dati raccolti (ad esempio, in un campionamento). Le statistiche che derivano da campioni contenenti outlier possono essere fuorvianti. Per esempio, se misurassimo la temperatura di dieci oggetti presenti in una stanza, la maggior parte dei quali risultasse avere una temperatura compresa fra 20 e 25 gradi Celsius, allora il forno acceso, avente una temperatura di 350 gradi, sarebbe un dato aberrante. La mediana dei valori sarebbe circa 23, mentre la temperatura media salirebbe a circa 55 gradi: un indice chiaramente non rappresentativo della maggioranza dei valori di temperatura riscontrati nella stanza. In questo caso, la mediana rifletterebbe meglio della media aritmetica le misure della temperatura degli oggetti. Gli outliers possono essere indicativi del fatto che, in un dato campione, alcuni dati appartengono ad una popolazione differente rispetto a quella del resto del campione. Nella maggioranza dei grandi campioni, alcuni dati saranno più lontani dalla media del campione di quanto sarebbe logico aspettarsi. Ciò può essere dovuto ad un errore sistematico che si è verificato nella raccolta dei dati, oppure a una fallacia nella teoria che ha orientato l'assunzione di una data distribuzione campionaria di probabilità, ma potrebbe anche essere semplicemente dovuto al caso, che ha fatto sì che nella raccolta dei dati alcune osservazioni abbiano prodotto dati molto lontani dai valori medi del campione. Inoltre, gli outliers potrebbero essere indicativi di dati errati, procedure erronee o aree sperimentali in cui alcune teorie potrebbero non essere valide. Tuttavia, un piccolo numero di dati aberranti non dovuti a condizioni anomale è dato per scontato nei grandi campioni. Stimatori poco influenzati dai dati aberranti sono detti robusti.
Outlier
L'analisi delle componenti principali (in inglese "principal component analysis" o abbreviata "PCA"), anche nota come trasformata di Karhunen-Loève, trasformata di Hotelling o decomposizione ortogonale propria, è una tecnica per la semplificazione dei dati utilizzata nell'ambito della statistica multivariata. Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell'analisi fattoriale. Lo scopo della tecnica è quello di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni. Ciò avviene tramite una trasformazione lineare delle variabili che proietta quelle originarie in un nuovo sistema cartesiano in cui la nuova variabile con la maggiore varianza viene proiettata sul primo asse, la variabile nuova, seconda per dimensione della varianza, sul secondo asse e così via. La riduzione della complessità avviene limitandosi ad analizzare le principali, per varianza, tra le nuove variabili. Diversamente da altre trasformazioni lineari di variabili praticate nell'ambito della statistica, in questa tecnica sono gli stessi dati che determinano i vettori di trasformazione. Assumendo che a ciascuna delle variabili originarie venga sottratta la loro media e pertanto la nuova variabile (X) abbia media nulla, Dove arg max indica l'insieme degli argomenti "w" in cui è raggiunto il massimo. Con i primi (k-1) componenti, il k-esimo componente può essere trovato sottraendo i primi (k-1) componenti principali a "X" e sostituendo questo Un metodo più semplice per calcolare la componente w utilizza la matrice delle covarianze di x. La stessa operazione può essere eseguita partendo dalla matrice dei coefficienti di correlazione anziché dalla matrice di varianza-covarianza delle variabili "x". Innanzitutto si devono trovare gli autovalori della matrice di covarianza o della matrice dei coefficienti di correlazione. Si ottengono tanti autovalori quante sono le variabili x. Se viene utilizzata la matrice di correlazione, l'autovalore relativo alla prima componente principale, ossia quella con varianza massima, sarà pari ad 1. In ogni caso l'autovalore con il maggiore valore corrisponde alla dimensione w che ha la maggiore varianza: esso sarà dunque la varianza della componente principale 1. In ordine decrescente, il secondo autovalore sarà la varianza della componente principale 2, e così via per gli n autovalori. Per ciascun autovalore viene calcolato il corrispondente autovettore, ossia la matrice (riga vettore) dei coefficienti che moltiplicano le vecchie variabili x nella combinazione lineare per l'ottenimento delle nuove variabili w. Questi coefficienti sono anche definiti loading. La matrice degli autovettori, ossia la matrice che ha per riga ciascun autovettore prima calcolato, è la cosiddetta matrice di rotazione V. Eseguendo l'operazione matriciale formula_4, dove W è il vettore colonna avente come elementi le nuove variabili w1, w2, ..., wn e X è il vettore colonna avente come elementi le "vecchie variabili" x1, x2, ..., xn, si possono trovare le coordinate di ciascun punto nel nuovo spazio vettoriale. Utilizzando le coordinate per ciascun punto relative alle componenti principali si costruisce il grafico denominato score plot. Se le componenti principali sono 3 si avrà un grafico tridimensionale, se sono 2 sarà bidimensionale, se invece si è scelta una sola componente principale lo score plot sarà allora monodimensionale. Mediante lo score plot è possibile verificare quali dati sono simili tra di loro e quindi si può ad esempio dedurre quali campioni presentano la medesima composizione. In PCA esiste anche un altro tipo di grafico, definito loading plot, in cui sono le variabili x ad essere riportate nel nuovo sistema avente per assi le componenti principali. Con questo tipo di grafico è possibile osservare se due variabili sono simili, e pertanto forniscono lo stesso tipo di informazione, oppure se sono distanti (e quindi non sono simili). Quindi gli elementi dell'autovettore colonna corrispondente a un autovalore esprimono il legame tra le variabili di partenza e la componente considerata attraverso dei pesi. Il numero di variabili latenti da considerare come componenti principali si fonda sulla grandezza relativa di un autovalore rispetto agli altri. Invece nel caso in cui sia l'operatore a scegliere le componenti principali senza considerare la relativa varianza espressa dai rispettivi autovalori, si ha un supervised pattern recognition. Si può costruire la matrice dei fattori, in pratica una matrice modale, che elenca per riga le variabili originarie e per colonna le variabili latenti: ogni valore, compreso tra 0 e 1, dice quanto le seconde incidano sulle prime. Invece la matrice del punteggio fattoriale ha la stessa struttura della precedente, ma dice quanto le singole variabili originarie abbiano pesato sulla determinazione della grandezza di quelle latenti. Si supponga di disporre di un'indagine che riporta per 10 soggetti: voto medio (da 0 a 33), intelligenza (da 0 a 10), media ore studiate in un giorno e zona d'origine, che varia da 1 a 3. Si standardizzino i valori con la formula: formula_5 E(x) è il valore atteso di X, ovvero il valor medio, SD è la deviazione standard. La matrice dei coefficienti di correlazione è: La diagonale principale è composta da valori uguali ad 1 perché è il coefficiente di correlazione di una variabile con se stessa. È pure una matrice simmetrica perché il coefficiente di correlazione tra la variabile "x" e la variabile "y" è uguale a quello tra "y" e "x". Si vede come ci sia un forte legame tra voto, media ore studio e intelligenza. Dall'analisi degli autovalori si possono trarre conclusioni: Gli autovalori sono in ordine decrescente e il loro rapporto con la somma degli autovalori dà la percentuale di varianza che spiegano. Sono stati selezionati arbitrariamente solo quelli che hanno valore maggiore di 1 in quanto più significativi, che spiegano il 70,708% e il 26,755% rispettivamente. Si osservi alla matrice delle componenti principali: Il fattore 1 pesa fortemente sul voto medio. Sembrerebbe pure che pesi in maniera negativa sulla variabile della zona di origine; chiaramente questa affermazione non ha senso perché inverte il nesso di causalità: spetta allo statistico dare una spiegazione e una lettura sensate. Si calcoli quindi la matrice di punteggio fattoriale: Come si vede la variabile provenienza continua ad avere un influsso di segno negativo sull'autovalore principale. Le altre variabili invece hanno peso positivo.
Analisi delle componenti principali
0
Un sistema esperto è un programma che cerca di riprodurre le prestazioni di una o più persone esperte in un determinato campo di attività, ed è un'applicazione o una branca dell'intelligenza artificiale. I programmi utilizzati dai sistemi esperti sono in grado di porre in atto procedure di inferenza adeguate alla risoluzione di problemi particolarmente complessi, a cui potrebbe, se posto in una dimensione umana, porre rimedio solo un esperto del settore disciplinare in cui rientra la questione da risolvere. Ciò implica che tale sistema possa avvalersi in modo risoluto e autorevole delle istanze inferenziali che soggiacciono al corretto funzionamento del programma, cosicché sia capace di superare le incertezze e le difficoltà su cui volge la propria attività. I sistemi esperti si differenziano dunque da altri programmi simili, in quanto, facendo riferimento a tecnologie elaborate in funzione dell'intelligenza artificiale, sono sempre in grado di esibire i passaggi logici che soggiacciono alle loro decisioni: proposito che, ad esempio, non è attuabile da parte della mente umana. Il sistema esperto si compone principalmente di tre sezioni: Queste informazioni sono piuttosto generiche, ed estremamente flessibili per ciò che concerne la designazione di un programma con una tale definizione. Non esistono infatti sistemi capaci per davvero di soddisfare nella sua interezza il tipo di conoscenza che dovrebbe caratterizzare un sistema di tale fatta. Difatti, nella maggior parte dei programmi, le componenti che presiedono alle procedure di inferenza, non riescono ad attenere il rigore connaturato ad un algoritmo, in quanto nelle situazioni altamente complicate sarebbe troppo dispendioso analizzare ogni possibilità; si ricorre così allo stratagemma dell'euristica, che, tramite ragionamenti approssimativi ("fuzzy logic"), sacrifica la sicurezza dell'algoritmo per giungere a risultati altamente probabili, ma comunque fallibili. I sistemi esperti si dividono in due categorie principali. I sistemi esperti basati su regole sono dei programmi composti da regole nella forma codice_1 (se condizione, allora azione). Dati una serie di fatti, i sistemi esperti, grazie alle regole di cui sono composti, riescono a dedurre nuovi fatti. Per esempio, supponiamo di avere un problema di salute, forniamo al sistema esperto i seguenti fatti: il sistema esperto assume i fatti e sceglie una regola così formata: Esempi di sistemi a regole sono Jess e CLIPS. Un sistema esperto basato su alberi, dato un insieme di dati ed alcune deduzioni, creerebbe un albero che classificherebbe i vari dati. Nuovi dati verrebbero analizzati dall'albero e il nodo di arrivo rappresenterebbe la deduzione. È da notare che un sistema esperto non è "intelligente" nel senso comune della parola, ossia in modo creativo. Le deduzioni di un sistema esperto non possono uscire dall'insieme di nozioni immesse inizialmente e dalle loro conseguenze. Ciò che li rende utili è che, come i calcolatori elettronici, possono maneggiare una gran quantità di dati molto velocemente e tenere quindi conto di una miriade di regole e dettagli che un esperto umano può ignorare, tralasciare o dimenticare.
Sistema esperto
Una base di conoscenza (individuata anche con il termine inglese knowledge base e con l'acronimo KB) è un tipo speciale di database per la gestione della conoscenza per scopi aziendali, culturali o didattici. Essa costituisce dunque un ambiente volto a facilitare la raccolta, l'organizzazione e la distribuzione della conoscenza. Una base di conoscenza di interesse aziendale, normalmente, si propone l'esplicita conoscenza di una organizzazione, inclusa quella che può servire alla risoluzione dei problemi, e concerne articoli, rapporti, manuali per gli utenti ed altro. Una base di conoscenza dovrebbe rispettare una ben progettata struttura di classificazione, osservare (pochi) determinati formati per i contenuti e disporre di un motore di ricerca. L'aspetto più importante di una base di conoscenza è il tipo di informazione che contiene. Una base di conoscenza che diventa un sito da dove scaricare informazioni irrilevanti vede il suo ruolo compromesso, proprio come un'informazione irrilevante. Assicurarsi che le informazioni più rilevanti ed aggiornate siano presenti in una base di conoscenza è essenziale per il suo successo, per non menzionare il fatto di avere un eccellente sistema di recupero delle informazioni (motore di ricerca). Determinare il tipo delle informazioni e dove queste risiedono nella base di conoscenza è un'attività che viene determinata in base ai processi che supportano il sistema. Un robusto processo di creazione della struttura è la spina dorsale di una base di conoscenza di successo.
Base di conoscenza
0
In statistica, la regressione di Poisson è una forma di modello lineare generalizzato di analisi di regressione usato per modellare il conteggio dei dati in tabelle contingenti. La regressione di Poisson assume che la variabile di risposta Y ha una distribuzione di Poisson, e assume che il logaritmo del suo valore aspettato possa essere modellato da una combinazione lineare di parametri sconosciuti. La regressione di Poisson è talvolta conosciuta anche come modello log-lineare, specialmente quando viene usato per modellare tabelle contingenti. La regressione binomiale negativa (NB2) è una famosa generalizzazione della regressione di Poisson perché allenta il presupposto altamente restrittivo che la varianza è uguale alla media come nel modello di Poisson La NB2 si basa sulla distribuzione mista Poisson-Gamma. Questo modello è molto usato perché modella l'eterogeneità della Poisson con la distribuzione Gamma.
Regressione di Poisson
Il metodo della massima verosimiglianza, in statistica, è un procedimento matematico per determinare uno stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di osservare una data realizzazione campionaria, condizionatamente ai valori assunti dai parametri statistici oggetto di stima. Il metodo è stato sviluppato, originariamente, dal genetista e statistico sir Ronald Fisher, tra il 1912 e il 1922. Data una distribuzione di probabilità formula_1, con funzione di massa (o densità, se continua) di probabilità formula_2, caratterizzata da un parametro formula_3, dato un campione di dati osservati formula_4 di dimensione formula_5 si può calcolare la probabilità associata ai dati osservati: D'altra parte, può darsi che il parametro formula_3 sia ignoto, sebbene sia noto che il campione è estratto dalla distribuzione formula_1. Un'idea per stimare formula_3 è allora utilizzare i dati a nostra disposizione: formula_4 per ottenere informazioni su formula_3. Il metodo della massima verosimiglianza ricerca il valore più "verosimile" di formula_3, ossia ricerca, all'interno dello spazio formula_13 di tutti i possibili valori di formula_3, il valore del parametro che "massimizza" la probabilità di aver ottenuto il campione dato. Da un punto di vista matematico, formula_15 o equivalentemente formula_16 è detta funzione di verosimiglianza, e lo stimatore di massima verosimiglianza è ottenuto come: Al fine di illustrare il metodo della massima verosimiglianza, si consideri un campione formula_18 di variabili casuali identicamente e indipendentemente distribuite, con distribuzione normale: formula_19. La funzione di verosimiglianza associata è: La massimizzazione della funzione di verosimiglianza è equivalente a massimizzarne il logaritmo: I parametri formula_22 e formula_23 sono determinati risolvendo il problema di massimo: Le condizioni del primo ordine per un massimo definiscono il seguente sistema di equazioni in formula_22 e formula_23: dove i segni di apice sopra i parametri denotano i loro stimatori. Dalla prima equazione discende immediatamente lo stimatore di massima verosimiglianza per la media: cioè la media campionaria. La varianza dello stimatore formula_30 è data dalla seguente espressione: Sostituendo formula_30 nella seconda equazione, si ha lo stimatore di massima verosimiglianza per la varianza: cioè la varianza campionaria. L'esempio è particolarmente calzante, perché consente di illustrare alcune proprietà degli stimatori di massima verosimiglianza. È immediato verificare la correttezza (o "unbiasedness") di formula_30: D'altra parte, formula_36 non gode di tale proprietà. Ricordando che: segue che: Dunque formula_36 non è uno stimatore corretto; un tale stimatore sarebbe dato dalla statistica: Val la pena d'altra parte di osservare che lo stimatore di massima verosimiglianza è comunque uno stimatore asintoticamente corretto; infatti: In particolare, qualunque stimatore di massima verosimiglianza è asintoticamente corretto e asintoticamente normalmente distribuito. L'espressione per la varianza dello stimatore formula_36 è al di là degli scopi di questo esempio. È interessante osservare che gli stimatori derivati in questa sezione sono identici a quelli ottenibili, nelle stesse condizioni, impiegando il metodo dei momenti; a scanso di equivoci, si precisa che i due metodi di ricerca degli stimatori non conducono necessariamente a individuare gli stessi stimatori in condizioni più generali. Al di là dei problemi evidenziati negli esempi sopra, altre difficoltà, di portata più generale, possono essere associate agli stimatori di massima verosimiglianza. Il valore dello stimatore di massima verosimiglianza può non appartenere allo spazio dei parametri formula_13. Si consideri il caso di un campione formula_44 di v.c. identicamente e indipendentemente distribuite, con distribuzione di Poisson di parametro formula_45. La funzione di verosimiglianza associata è: Così che la funzione di log-verosimiglianza risulta: Lo stimatore di massima verosimiglianza sarebbe dunque formula_48. Si supponga tuttavia che formula_49; poiché formula_50, la stima ottenuta con il metodo della massima verosimiglianza non è ammissibile. A prima vista il problema potrebbe apparire un dettaglio matematico di scarso rilievo nella pratica; la sua portata nelle applicazioni è tuttavia più rilevante di quanto sembri. Restando nell'ambito dell'esempio testé esposto, si osservi che la variabile casuale poissoniana è spesso utilizzata come modello per il numero di arrivi a uno sportello, un ufficio, la fermata di un autobus, etc. (si tratta di un'applicazione della teoria delle code, che fa per la precisione riferimento al processo di Poisson); in tale contesto, formula_51 rappresenta il tasso atteso di arrivi per unità di tempo. È chiaro che ipotizzare formula_52 in qualche misura snatura il processo sotto esame: può darsi che, nell'intervallo di tempo corrispondente al campione utilizzato per la stima, nessun cliente sia arrivato allo sportello (nessun passeggero alla fermata dell'autobus, etc.); ciò non significa che ci si debba aspettare che nessun cliente (o passeggero, etc.) arrivi mai! Lo stimatore di massima verosimiglianza, inoltre, "non è necessariamente unico". Si consideri, ad esempio, il caso di un campione formula_53 di variabili casuali identicamente e indipendentemente distribuite, aventi distribuzione uniforme sull'intervallo formula_54, con formula_55. La funzione di verosimiglianza associata è: dove formula_57 denota la funzione indicatrice. Si supponga che il campione sia ordinato in modo tale che: (tale ipotesi è lecita in quanto le formula_59 sono indipendentemente distribuite). È facile mostrare che: Ne consegue che lo stimatore di massima verosimiglianza per formula_3 è unico se e solo se formula_62; diversamente, un numero infinito di valori dello stimatore formula_63 massimizza la funzione di verosimiglianza. Se formula_63 è lo stimatore di massima verosimiglianza per il parametro formula_3, allora lo stimatore di massima verosimiglianza per formula_66 è formula_67, purché formula_68 sia una funzione biiettiva. Gli stimatori di massima verosimiglianza, come illustrato negli esempi, possono essere distorti (cioè non corretti o all'inglese "biased"), anche in maniera consistente. D'altra parte essi sono asintoticamente corretti. Gli stimatori di massima verosimiglianza non conseguono in generale il limite inferiore per la varianza stabilito dal risultato di Cramér-Rao, lo conseguono però asintoticamente, cioè la varianza si discosta dal limite inferiore di Cramér-Rao per una quantità infinitesima al crescere di "n". Gli stimatori di massima verosimiglianza sono inoltre asintoticamente normalmente distribuiti.
Metodo della massima verosimiglianza
0
Nella teoria delle decisioni (per esempio nella gestione dei rischi), un albero di decisione è un grafo di decisioni e delle loro possibili conseguenze, (incluso i relativi costi, risorse e rischi) utilizzato per creare un 'piano di azioni' ("plan") mirato ad uno scopo ("goal"). Un albero di decisione è costruito al fine di supportare l'azione decisionale ("decision making"). Nel machine learning un albero di decisione è un modello predittivo, dove ogni nodo interno rappresenta una variabile, un arco verso un nodo figlio rappresenta un possibile valore per quella proprietà e una foglia il valore predetto per la variabile obiettivo a partire dai valori delle altre proprietà, che nell'albero è rappresentato dal cammino ("path") dal nodo radice ("root") al nodo foglia. Normalmente un albero di decisione viene costruito utilizzando tecniche di apprendimento a partire dall'insieme dei dati iniziali ("data set"), il quale può essere diviso in due sottoinsiemi: il "training set" sulla base del quale si crea la struttura dell'albero e il "test set" che viene utilizzato per testare l'accuratezza del modello predittivo così creato. Nel data mining un albero di decisione viene utilizzato per classificare le istanze di grandi quantità di dati (per questo viene anche chiamato albero di classificazione). In questo ambito un albero di decisione descrive una struttura ad albero dove i nodi foglia rappresentano le classificazioni e le ramificazioni l'insieme delle proprietà che portano a quelle classificazioni. Di conseguenza ogni nodo interno risulta essere una macro-classe costituita dall'unione delle classi associate ai suoi nodi figli. Il predicato che si associa ad ogni nodo interno (sulla base del quale avviene la ripartizione dei dati) è chiamato "condizione di split". In molte situazioni è utile definire un criterio di arresto ("halting"), o anche "criterio di potatura" ("pruning") al fine di determinarne la profondità massima. Questo perché il crescere della profondità di un albero (ovvero della sua dimensione) non influisce direttamente sulla bontà del modello. Infatti, una crescita eccessiva della dimensione dell'albero potrebbe portare solo ad aumento sproporzionato della complessità computazionale rispetto ai benefici riguardanti l'accuratezza delle previsioni/classificazioni. Una sua evoluzione è la tecnica foresta casuale ("random forest"). I parametri più largamente usati per le condizioni di split sono: formula_1 L'indice di Gini raggiunge il suo minimo (zero) quando il nodo appartiene ad una singola categoria. formula_2 In entrambe le formule "f" rappresenta la frequenza del valore "j" nel nodo "i". L'indice di Gini e la variazione di entropia sono i parametri che vengono usualmente utilizzati per guidare la costruzione dell'albero, mentre la valutazione del tasso di errore nella classificazione viene utilizzato per effettuare una ottimizzazione dell'albero nota come processo di "pruning" ("potatura" dei nodi superflui). Poiché, in generale, in un buon albero di decisione i nodi foglia dovrebbero essere il più possibile "puri" (ovvero contenere solo istanze di dati che appartengono ad una sola classe), un'ottimizzazione dell'albero consiste nel cercare di minimizzare il livello di entropia man mano che si scende dalla radice verso le foglie. In tal senso, la valutazione dell'entropia determina quali sono, fra le varie scelte a disposizione, le condizioni di split ottimali per l'albero di classificazione.
Albero di decisione
Il data mining (letteralmente dall'inglese "estrazione di dati") è l'insieme di tecniche e metodologie che hanno per oggetto l'estrazione di informazioni utili da grandi quantità di dati (es. database, datawarehouse ecc...), attraverso metodi automatici o semi-automatici (es. machine learning) e l'utilizzo scientifico, aziendale/industriale o operativo delle stesse. La statistica può essere definita altrimenti come ""estrazione di informazione utile da insiemi di dati"". Il concetto di "data mining" è simile, ma con una sostanziale differenza: la statistica permette di elaborare informazioni generali riguardo ad una popolazione (es. percentuali di disoccupazione, nascite), mentre il "data mining "viene utilizzato per cercare correlazioni tra più variabili relativamente ai singoli individui; ad esempio conoscendo il comportamento medio dei clienti di una compagnia telefonica cerco di prevedere quanto spenderà il cliente medio nell'immediato futuro. In sostanza il data mining è ""l'analisi, da un punto di vista matematico, eseguita su database di grandi dimensioni"", preceduta tipicamente da altre fasi di preparazione/trasformazione/filtraggio dei dati come il data cleaning. Il termine "data mining" è diventato popolare nei tardi anni novanta come versione abbreviata della definizione appena esposta; oggi il "data mining" ha una duplice valenza: In entrambi i casi i concetti di informazione e di significato sono legati strettamente al dominio applicativo in cui si esegue data mining, in altre parole un dato può essere interessante o trascurabile a seconda del tipo di applicazione in cui si vuole operare. Questo tipo di attività è cruciale in molti ambiti della ricerca scientifica, ma anche in altri settori (per esempio in quello delle ricerche di mercato). Nel mondo professionale è utilizzata per risolvere problematiche diverse tra loro, che vanno dalla gestione delle relazioni con i clienti (CRM), all'individuazione di comportamenti fraudolenti, fino all'ottimizzazione di siti web. I fattori principali che hanno contribuito allo sviluppo del data mining sono: Le tecniche di data mining sono fondate su specifici algoritmi. I pattern identificati possono essere, a loro volta, il punto di partenza per ipotizzare e quindi verificare nuove relazioni di tipo causale fra fenomeni; in generale, possono servire in senso statistico per formulare previsioni su nuovi insiemi di dati. Un concetto correlato al data mining è quello di apprendimento automatico ("Machine learning"); infatti, l'identificazione di pattern può paragonarsi all'apprendimento, da parte del sistema di data mining, di una relazione causale precedentemente ignota, cosa che trova applicazione in ambiti come quello degli algoritmi euristici e dell'intelligenza artificiale. Tuttavia, occorre notare che il processo di data mining è sempre sottoposto al rischio di rivelare relazioni causali che poi si rivelano inesistenti. Tra le tecniche maggiormente utilizzate in questo ambito vi sono: Un'altra tecnica molto diffusa per il data mining è l'apprendimento mediante classificazione. Questo schema di apprendimento parte da un insieme ben definito di esempi di classificazione per casi noti, dai quali ci si aspetta di dedurre un modo per classificare esempi non noti. Tale approccio viene anche detto "con supervisione" ("supervised"), nel senso che lo schema di apprendimento opera sotto la supervisione fornita implicitamente dagli esempi di classificazione per i casi noti; tali esempi, per questo motivo, vengono anche detti "training examples", ovvero "esempi per l'addestramento". La conoscenza acquisita per apprendimento mediante classificazione può essere rappresentata con un albero di decisione. L'estrazione dei dati vera e propria giunge quindi al termine di un processo che comporta numerose fasi: si individuano le fonti di dati; si crea un unico set di dati aggregati; si effettua una pre-elaborazione (data cleaning, analisi esplorative, selezione, ecc.); si estraggono i dati con l'algoritmo scelto; si interpretano e valutano i pattern; l'ultimo passaggio va dai pattern alla nuova conoscenza così acquisita. Vi sono diverse proposte e tecniche aventi ognuna specifiche caratteristiche e vantaggi. Che cosa "è" "data mining"? Che cosa "non è" "data mining"? È una forma particolare di data mining nella quale i dati consistono in testi in lingua naturale, in altre parole, documenti "destrutturati". Il text mining unisce la tecnologia della lingua con gli algoritmi del data mining. L'obiettivo è sempre lo stesso: l'estrazione di informazione implicita contenuta in un insieme di documenti. Ha avuto un notevole sviluppo, grazie ai progressi delle tecniche di elaborazione del linguaggio naturale (NLP in inglese), della disponibilità di applicazioni complesse attraverso gli "Application service provider" (ASP) e dell'interesse verso le tecniche automatiche di gestione della lingua mostrato sia dagli accademici, sia dai produttori di software, sia dai gestori dei motori di ricerca. Una delle evoluzioni più recenti del data mining è la "data visualisation". Settore specialistico dell'infografica, la data visualisation si occupa non solamente di rendere graficamente intelligibile un testo, ma entra in relazione più diretta con la strutturazione dei database e l'esportazione di grafici dai dati. Un'altra nuova frontiera è il «social data mining»: l'analisi di informazioni generate dalle reti sociali online, come ad esempio l'analisi del sentiment. L'utilizzo del data mining nella ricerca di mercato è volto ad ampliare la conoscenza su cui basare i processi decisionali. Nel contesto aziendale il data mining è considerato parte del processo che porta alla creazione di un data warehouse. È efficace soprattutto per la valorizzazione delle informazioni aziendali residenti in questi grandi depositi di dati. Affinché l'informazione estratta dai dati esistenti sia significativa, e quindi potenzialmente utile, deve essere: In questo contesto, un pattern (schema) non è altro che la rappresentazione delle relazioni chiave che vengono scoperte durante il processo di estrazione dati: sequenze ripetute, omogeneità, emergenza di regole, ecc. Per esempio, se un pattern mostra che i clienti di una certa area demografica sono molto propensi ad acquistare uno specifico prodotto, allora un'interrogazione ("query") selettiva ad un data warehouse di probabili compratori può essere usata per generare un elenco di indirizzi promozionali. L'esempio classico spesso usato nei corsi universitari è quello di una catena non meglio specificata di supermercati (probabilmente statunitense) che avrebbe scoperto, analizzando gli scontrini, qualcosa altrimenti difficilmente immaginabile: le persone che acquistavano pannolini spesso compravano più birra degli altri, per cui mettendo la birra più costosa non lontano dai pannolini, poteva incrementarne le vendite. Infatti quelle persone che avevano figli piccoli passavano più serate in casa a guardare la TV bevendo birra in casa non potendo uscire con gli amici. È doveroso tuttavia precisare che non è chiaro quale sia la catena di supermercati in questione, e l'esempio, seppur ottimo per scopi didattici e largamente utilizzato anche in ambito giornalistico, potrebbe essere stato inventato così come potrebbe essere vero.
Data mining
0
Il DBSCAN ("Density-Based Spatial Clustering of Applications with Noise") è un metodo di clustering proposto nel 1996 da Martin Ester, Hans-Peter Kriegel, Jörg Sander and Xiaowei Xu. È basato sulla densità perché connette regioni di punti con densità sufficientemente alta. DBSCAN è l'algoritmo più comunemente usato ed è anche il più citato nella letteratura scientifica. DBSCAN usa una definizione di cluster basata sulla nozione di "density-reachability". Un punto formula_1 è direttamente raggiungibile da un punto formula_2 se la loro distanza è minore di un assegnato formula_3 (cioè, è parte del suo formula_3-vicinato) e se formula_2 è circondato da un sufficiente numero di punti, allora formula_2 e formula_1 possono essere considerati parti di un cluster. Il punto formula_1 è "density-reachable" da formula_2 se c'è una sequenza formula_10 di punti con formula_11 e formula_12 dove ogni formula_13 è density-reachable direttamente da formula_14. Si osservi che la relazione density-reachable non è simmetrica dato che formula_1 potrebbe situarsi su una periferia del cluster, avendo un numero insufficiente di vicini per considerarlo un elemento genuino del cluster. Di conseguenza la nozione "density-connected" diventa: due punti formula_2 e formula_1 sono density-connected se c'è un punto formula_18 tale che sia formula_18 e formula_2 sia formula_18 e formula_1 sono density-reachable. Un cluster, che è un sotto-insieme dei punti del database, soddisfa due proprietà: DBSCAN necessita di due parametri: formula_3 (eps) e del numero minimo di punti richiesti per formare un cluster (minPts). Si comincia con un punto casuale che non è stato ancora visitato. Viene calcolato il suo formula_3-vicinato e se contiene un numero sufficiente di punti viene creato un nuovo cluster. Se ciò non avviene il punto viene etichettato come rumore e successivamente potrebbe essere ritrovato in un formula_3-vicinato sufficientemente grande riconducibile ad un punto differente entrando a far parte di un cluster. Se un punto è associato ad un cluster anche i punti del suo formula_3-vicinato sono parte del cluster. Conseguentemente tutti i punti trovati all'interno del suo formula_3-vicinato sono aggiunti al cluster, così come i loro formula_3-vicinati. Questo processo continua fino a quando il cluster viene completato. Il processo continua fino a quando non sono stati visitati tutti i punti. DBSCAN(D, eps, MinPts) DBSCAN visita ogni punto del database, anche più volte nel caso di punti candidati a cluster differenti. Tuttavia per considerazioni pratiche la complessità temporale è per lo più governata dal numero di invocazioni a getVicini, in riferimento allo pseudo codice di cui sopra. DBSCAN esegue esattamente una invocazione per ogni punto e se viene utilizzata una struttura indicizzata che esegue un'interrogazione del vicinato in formula_29, si ottiene un tempo globale di esecuzione pari a formula_30. Senza l'uso di strutture indicizzate, il tempo di esecuzione è pari a formula_31. Spesso la matrice delle distanze di dimensione formula_32 viene creata per evitare appunto il ricalcolo delle distanze riducendo il tempo di elaborazione a spese della memoria utilizzata pari a formula_31. DBSCAN presenta i seguenti vantaggi: Il rilevamento del vicinato più vicino avviene nella funzione getVicini(P,epsilon). Per ogni punto P vengono determinati tutti gli altri punti che sono all'interno dell'intervallo epsilon, basandosi sulla funzione della distanza usata nell'algoritmo. L'analisi richiede che sia calcolata una matrice delle distanze per l'intero data set. La generazione della matrice delle distanze ha una complessità di formula_34dato che è necessaria solo una matrice triangolare superiore. All'interno della matrice delle distanze il vicinato più vicino può essere calcolato selezionando la tupla che ha come valori il minimo delle funzioni su riga e colonna. La ricerca ha spinto il rilevamento del vicinato, nei database tradizionali, per migliorare la velocità. Questi ultimi risolvono il problema utilizzando indici specificamente progettati per questo tipo di applicazioni. Ogni processo di data mining ha il problema dei parametri. Ogni parametro influenza l'algoritmo in modo specifico. Per il DBSCAN i parametri epsilon e MinPnts sono necessari. I parametri devono essere specificati dall'utente dato che ogni data set richiede parametri differenti. Un valore iniziale per formula_3 può essere determinato come un k-distance graph. Come per le regole del pollice, formula_36 può essere derivato dal numero di dimensioni nel data set formula_37 come formula_38. Tuttavia valori maggiori sono usualmente migliori per data set con rumore. Anche se questa stima dei parametri restituisce un insieme sufficiente di parametri, la classificazione risultante può rivelarsi diversa da ciò che si aspetta, pertanto la ricerca ha realizzato un'incrementale ottimizzazione dei parametri su particolari valori. Per ogni oggetto vengono trovati i vicini che ricadono in un raggio dato come parametro in ingresso; se il numero di questi vicini è superiore ad un fattore di soglia, anch'esso fornito in input all'algoritmo, allora questi punti fanno parte del medesimo cluster di quello dell'oggetto che si sta osservando e in questo caso il punto è denominato core point. Al termine dell'algoritmo ci potrebbero essere alcuni punti non appartenenti a cluster catalogati come "rumore". Se c'è una catena di oggetti da attraversare (con i consueti vincoli) per raggiungere un punto "q" da uno "p", allora "q" sarà detto semplicemente rintracciabile. Ultimo caso è quello in cui due oggetti "p" e "q" sono detti connessi: per essere definiti in tal modo, deve esistere un terzo punto "o", per cui "p" e "q" sono entrambi rintracciabili.
Dbscan
In statistica e apprendimento automatico, il clustering gerarchico è un approccio di clustering che mira a costruire una gerarchia di cluster. Le strategie per il clustering gerarchico sono tipicamente di due tipi: Il risultato di un clustering gerarchico è rappresentato in un dendrogramma. Per decidere quali cluster devono essere combinati (approccio agglomerativo) o quale cluster deve essere suddiviso (approccio divisivo) è necessario definire una misura di dissimilarità tra cluster. Nella maggior parte dei metodi di clustering gerarchico si fa uso di metriche specifiche che quantificano la distanza tra coppie di elementi e di un criterio di collegamento che specifica la dissimilarità di due insiemi di elementi (cluster) come funzione della distanza a coppie tra elementi nei due insiemi. La scelta di una metrica appropriata influenza la forma dei cluster, poiché alcuni elementi possono essere più "vicini" utilizzando una distanza e più "lontani" utilizzandone un'altra. Per esempio, in uno spazio a 2 dimensioni, la distanza tra il punto (1, 1) e l'origine (0, 0) è 2, formula_1 or 1 se si utilizzando rispettivamente le norme 1, 2 o infinito. Metriche comuni sono le seguenti: Il criterio di collegamento ("linkage criterion") specifica la distanza tra insiemi di elementi come funzione di distanze tra gli elementi negli insiemi. Dati due insiemi di elementi "A" e "B" alcuni criteri comunemente utilizzati sono: dove "d" è la metrica prescelta per determinare la similarità tra coppie di elementi.
Clustering gerarchico
0
Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese "artificial neural network", abbreviato in ANN o anche come NN) è un modello computazionale composto di "neuroni" artificiali, ispirato vagamente dalla semplificazione di una rete neurale biologica. Questi modelli matematici sono troppo semplici per ottenere una comprensione delle reti neurali biologiche, ma sono utilizzati per tentare di risolvere problemi ingegneristici di intelligenza artificiale come quelli che si pongono in diversi ambiti tecnologici (in elettronica, informatica, simulazione, e altre discipline). Una rete neurale artificiale può essere realizzata sia da programmi software che da hardware dedicato (DSP, "Digital Signal Processing"). Questa branca può essere utilizzata in congiunzione alla logica fuzzy. L'ampia varietà di modelli non può prescindere dal costituente di base, il neurone artificiale proposto da W.S. McCulloch e Walter Pitts in un famoso lavoro del 1943: ""A logical calculus of the ideas immanent in nervous activity"", il quale schematizza un combinatore lineare a soglia, con dati binari multipli in entrata e un singolo dato binario in uscita: un numero opportuno di tali elementi, connessi in modo da formare una rete, è in grado di calcolare semplici funzioni booleane. Le prime ipotesi di apprendimento furono introdotte da D. O. Hebb nel libro del 1949: ""The organization of behavior"", nel quale vengono proposti collegamenti con i modelli complessi del cervello. Nel 1958, J. Von Neumann nella sua opera ""The computer and the brain"" esamina le soluzioni proposte dai precedenti autori sottolineando la scarsa precisione che queste strutture possedevano per potere svolgere operazioni complesse. Nello stesso anno, Frank Rosenblatt nel libro "Psychological review" introduce il primo schema di rete neurale, detto "Perceptron" (percettrone), antesignano delle attuali reti neurali, per il riconoscimento e la classificazione di forme, allo scopo di fornire un'interpretazione dell'organizzazione generale dei sistemi biologici. Il modello probabilistico di Rosenblatt è quindi mirato all'analisi, in forma matematica, di funzioni quali l'immagazzinamento delle informazioni, e della loro influenza sul riconoscimento dei pattern; esso costituisce un progresso decisivo rispetto al modello binario di McCulloch e Pitts, perché i suoi pesi sinaptici sono variabili e quindi il percettrone è in grado di apprendere. L'opera di Rosenblatt stimola una quantità di studi e ricerche che dura per un decennio, e suscita un vivo interesse e notevoli aspettative nella comunità scientifica, destinate tuttavia ad essere notevolmente ridimensionate allorché nel 1969 Marvin Minsky e Seymour A. Papert, nell'opera ""An introduction to computational geometry"", mostrano i limiti operativi delle semplici reti a due strati basate sul percettrone, e dimostrano l'impossibilità di risolvere per questa via molte classi di problemi, ossia tutti quelli non caratterizzati da separabilità lineare delle soluzioni: questo tipo di rete neurale non è abbastanza potente: non è infatti neanche in grado di calcolare la funzione "or esclusivo" (XOR). A causa di queste limitazioni, al periodo di euforia dovuto ai primi risultati della cibernetica (come veniva chiamata negli anni sessanta) segue un periodo di diffidenza durante il quale tutte le ricerche in questo campo non ricevono più alcun finanziamento dal governo degli Stati Uniti d'America; le ricerche sulle reti tendono, di fatto, a ristagnare per oltre un decennio, e l'entusiasmo iniziale risulta fortemente ridimensionato. Il contesto matematico per addestrare le reti MLP ("Multi-Layers Perceptron", ossia percettrone multistrato) fu stabilito dal matematico americano Paul Werbos nella sua tesi di dottorato (Ph.D.) del 1974. Non fu dato molto peso al suo lavoro tanto fu forte la confutazione dimostrata da Minsky e Papert anni prima, e solo l'intervento di J. J. Hopfield, nel 1982, che in un suo lavoro studia dei modelli di riconoscimento di pattern molto generali, si oppose in modo diretto alla confutazione di Minsky riaprendo così degli spiragli per la ricerca in questo campo. Uno dei metodi più noti ed efficaci per l'addestramento di tale classe di reti neurali è il cosiddetto algoritmo di retropropagazione dell'errore (error backpropagation), proposto nel 1986 da David E. Rumelhart, G. Hinton e R. J. Williams, il quale modifica sistematicamente i pesi delle connessioni tra i nodi, così che la risposta della rete si avvicini sempre di più a quella desiderata. Tale lavoro fu prodotto riprendendo il modello creato da Werbos. L'algoritmo di retropropagazione ("backpropagation" o BP) è una tecnica d'apprendimento tramite esempi, costituente una generalizzazione dell'algoritmo d'apprendimento per il percettrone sviluppato da Rosenblatt nei primi anni '60. Mediante questa tecnica era possibile, come detto, trattare unicamente applicazioni caratterizzabili come funzioni booleane linearmente separabili. L'algoritmo di apprendimento si basa sul metodo della discesa del gradiente che permette di trovare un minimo locale di una funzione in uno spazio a N dimensioni. I pesi associati ai collegamenti tra gli strati di neuroni si inizializzano a valori piccoli (ovvero molto inferiori ai valori reali che poi assumeranno) e casuali e poi si applica la regola di apprendimento presentando alla rete dei pattern di esempio. Queste reti neurali sono poi capaci di generalizzare in modo appropriato, cioè di dare risposte plausibili per input che non hanno mai visto. L'addestramento di une rete neurale di tipo BP avviene in due diversi stadi: "forward-pass" e "backward-pass". Nella prima fase i vettori in input sono applicati ai nodi in ingresso con una propagazione in avanti dei segnali attraverso ciascun livello della rete ("forward-pass"). Durante questa fase i valori dei pesi sinaptici sono tutti fissati. Nella seconda fase la risposta della rete viene confrontata con l'uscita desiderata ottenendo il segnale d'errore. L'errore calcolato è propagato nella direzione inversa rispetto a quella delle connessioni sinaptiche. I pesi sinaptici infine sono modificati in modo da minimizzare la differenza tra l'uscita attuale e l'uscita desiderata ("backward-pass"). Tale algoritmo consente di superare le limitazioni del percettrone e di risolvere il problema della separabilità non lineare (e quindi di calcolare la funzione XOR), segnando il definitivo rilancio delle reti neurali, come testimoniato anche dall'ampia varietà d'applicazioni commerciali: attualmente la BP rappresenta un algoritmo di largo uso in molti campi applicativi. Una rete neurale artificiale (ANN ""Artificial Neural Network"" in inglese), normalmente chiamata solo "rete neurale" (NN ""Neural Network"" in inglese), è un modello matematico/informatico di calcolo basato sulle reti neurali biologiche. Tale modello è costituito da un gruppo di interconnessioni di informazioni costituite da neuroni artificiali e processi che utilizzano un approccio di connessionismo di calcolo. Nella maggior parte dei casi una rete neurale artificiale è un sistema adattivo che cambia la propria struttura in base a informazioni esterne o interne che scorrono attraverso la rete stessa durante la fase di apprendimento. In termini pratici le reti neurali sono strutture non-lineari di dati statistici organizzate come strumenti di modellazione. Esse possono essere utilizzate per simulare relazioni complesse tra ingressi e uscite che altre funzioni analitiche non riescono a rappresentare. Una rete neurale artificiale riceve segnali esterni su uno strato di nodi (unità di elaborazione) d'ingresso, ciascuno dei quali è collegato con numerosi nodi interni, organizzati in più livelli. Ogni nodo elabora i segnali ricevuti e trasmette il risultato a nodi successivi. Il concetto di rete neurale si pone perché una funzione formula_1 è definita come una composizione di altre funzioni formula_2, che possono a loro volta essere ulteriormente definite come composizione di altre funzioni. Questo può essere comodamente rappresentato come una struttura di reti, con le frecce raffiguranti le dipendenze tra variabili. Una rappresentazione ampiamente utilizzata è la somma ponderata non lineare, dove formula_3, dove formula_4 è una funzione predefinita, come ad esempio la tangente iperbolica. Sarà conveniente per le seguenti far riferimento ad un insieme di funzioni come un vettore formula_5. La Figura 1 esemplifica una decomposizione della funzione formula_6, con dipendenze tra le variabili indicate dalle frecce. Queste possono essere interpretate in due modi: I due punti di vista sono in gran parte equivalenti. In entrambi i casi, per questa particolare architettura di rete, i componenti dei singoli strati sono indipendenti l'uno dall'altro (ad esempio, le componenti di formula_8 sono indipendenti l'una dall'altra, dato il loro ingresso formula_15). Questo, naturalmente, permette un certo grado di parallelismo nella costruzione del sistema. Reti, come ad esempio quelle precedenti vengono comunemente chiamate ""feedforward"", perché il loro è un grafico aciclico diretto. Reti con cicli al loro interno sono comunemente chiamati reti ricorrenti. Tali reti sono comunemente raffigurate nel modo indicato nella parte superiore della Figura 2, dove la funzione formula_6 è mostrata come dipendente su se stessa. Tuttavia, vi è una dipendenza temporale implicita che non è possibile dimostrare. Questo significa in pratica che il valore di formula_6 ad un certo punto nel tempo formula_18 dipende dai valori di formula_6 al tempo zero o su uno o più altri punti temporali. Il modello del grafico nella parte inferiore della Figura 2 illustra il caso in cui il valore di formula_6 al tempo formula_18 dipende solo dal suo valore finale. Tuttavia la funzionalità più interessante di queste funzioni, ciò che ha attirato l'interesse e lo studio per la maggior parte delle reti neurali, è la possibilità di apprendimento, che in pratica significa la seguente: Ciò comporta la definizione di una funzione di costo formula_24 tale che, per la soluzione ottimale formula_25 formula_26 nessuna soluzione ha un costo inferiore al costo della soluzione ottimale. La funzione di costo formula_27 è un concetto importante nell'apprendimento, poiché si tratta di una misura di quanto è lontana da noi la soluzione ottimale del problema che vogliamo risolvere. Quindi vi sono una serie di algoritmi di apprendimento che cercano nello spazio delle soluzioni al fine di trovare una funzione che abbia il minor costo possibile. Per applicazioni in cui la soluzione dipende da alcuni dati, il costo deve essere necessariamente funzione delle osservazioni. Mentre è possibile definire per alcune reti una funzione di costo ad hoc, spesso si può utilizzare una particolare funzione di costo poiché gode delle proprietà desiderate (ad esempio, la convessità), o perché proviene da una particolare formulazione del problema (vale a dire, in una formulazione probabilistica, la probabilità a posteriori del modello può essere utilizzata come l'inverso del costo). In ultima analisi, la funzione di costo dipenderà dal compito. Vi sono tre grandi paradigmi di apprendimento, ciascuno corrispondente ad un particolare compito astratto di apprendimento. Si tratta dell'apprendimento supervisionato, apprendimento non supervisionato e l'apprendimento per rinforzo. Di solito un tipo di architettura di rete può essere impiegato in qualsiasi di tali compiti. L'algoritmo di apprendimento hebbiano (1984) si basa sul semplice principio che se due neuroni si attivano contemporaneamente, la loro interconnessione deve essere rafforzata. formula_28 dove formula_29, dove formula_30 è l'formula_31 ingresso e formula_32 è il tasso di apprendimento formula_33. La regola di Hebb è la seguente: l'efficacia di una particolare sinapsi cambia se e solo se c'è un'intensa attività simultanea dei due neuroni, con un'alta trasmissione di input nella sinapsi in questione. Esempio di procedura: In questo modo le connessioni possono solo irrobustirsi. Le connessioni si considerano irrobustite quando le unità presinaptica e postsinaptica sono d'accordo, altrimenti si indeboliscono. Si considerano funzioni bipolari (-1,1) invece che booleane (0,1). Le reti neurali si basano principalmente sulla simulazione di neuroni artificiali opportunamente collegati. Il modello rappresentato in figura è quello proposto da McCulloch e Pitts. I suddetti neuroni ricevono in ingresso degli stimoli e li elaborano. L'elaborazione può essere anche molto sofisticata ma in un caso semplice si può pensare che i singoli ingressi vengano moltiplicati per un opportuno valore detto peso, il risultato delle moltiplicazioni viene sommato e se la somma supera una certa soglia il neurone si attiva attivando la sua uscita. Il peso indica l'efficacia sinaptica della linea di ingresso e serve a quantificarne l'importanza, un ingresso molto importante avrà un peso elevato, mentre un ingresso poco utile all'elaborazione avrà un peso inferiore. Si può pensare che se due neuroni comunicano fra loro utilizzando maggiormente alcune connessioni allora tali connessioni avranno un peso maggiore, fino a che non si creeranno delle connessioni tra l'ingresso e l'uscita della rete che sfruttano "percorsi preferenziali". Tuttavia è sbagliato pensare che la rete finisca col produrre un unico percorso di connessione: tutte le combinazioni infatti avranno un certo peso, e quindi contribuiscono al collegamento ingresso/uscita. Il modello in figura rappresenta una classica rete neurale pienamente connessa. I singoli neuroni vengono collegati alla schiera di neuroni successivi, in modo da formare una rete di neuroni. Normalmente una rete è formata da tre strati. Nel primo abbiamo gli ingressi (I), questo strato si preoccupa di trattare gli ingressi in modo da adeguarli alle richieste dei neuroni. Se i segnali in ingresso sono già trattati può anche non esserci. Il secondo strato è quello nascosto (H, "hidden"), si preoccupa dell'elaborazione vera e propria e può essere composto anche da più colonne di neuroni. Il terzo strato è quello di uscita (O) e si preoccupa di raccogliere i risultati ed adattarli alle richieste del blocco successivo della rete neurale. Queste reti possono essere anche molto complesse e coinvolgere migliaia di neuroni e decine di migliaia di connessioni. Per costruire la struttura di una rete neurale multistrato si possono inserire formula_38 strati "hidden." L'efficacia di generalizzare di una rete neurale multistrato dipende ovviamente dall'addestramento che ha ricevuto e dal fatto di essere riuscita o meno ad entrare in un minimo locale buono. L'algoritmo di retropropagazione dell'errore ("backpropagation") è utilizzato nell'apprendimento con supervisione. Esso permette di modificare i pesi delle connessioni in modo tale che si minimizzi una certa funzione errore E. Tale funzione dipende dal vettore h-esimo di output formula_39 restituito dalla rete, dato il vettore h-esimo di ingresso formula_40 e dal vettore h-esimo di output formula_41che noi desideriamo (che fa parte del training set). Il training set è dunque un insieme di N coppie di vettori formula_42, con formula_43. La funzione errore che si deve minimizzare si può scrivere come: formula_44 dove l'indice k rappresenta il valore corrispondente al k-esimo neurone di output. E(w) è una funzione dipendente dai pesi (che in generale variano nel tempo), per minimizzarla si può usare l'algoritmo della discesa del gradiente ("gradient descent"). L'algoritmo parte da un punto generico formula_45 e calcola il gradiente formula_46. Il gradiente dà la direzione verso cui muoversi lungo la quale si ha il massimo incremento (o decremento se considero formula_47). Definita la direzione ci si muove di una distanza formula_32 predefinita a priori e si trova un nuovo punto formula_49 sul quale è calcolato nuovamente il gradiente. Si continua iterativamente finché il gradiente non è nullo. L'algoritmo di backpropagation può essere diviso in due passi: I passi logici per addestrare una rete neurale con apprendimento supervisionato sono i seguenti: Per l'addestramento di reti neurali profonde, impiegando dataset molto vasti, la discesa del gradiente classica risulta computazionalmente proibitiva, per cui nell'ottimizzare i parametri del modello si fa tipicamente uso dell'algoritmo di discesa stocastica del gradiente. Nel 1982, il fisico John J. Hopfield pubblica un articolo fondamentale in cui presenta un modello matematico comunemente noto appunto come rete di Hopfield: tale rete si distingue per "l'emergere spontaneo di nuove capacità computazionali dal comportamento collettivo di un gran numero di semplici elementi d'elaborazione". Le proprietà collettive del modello producono una memoria associativa per il riconoscimento di configurazioni corrotte e il recupero di informazioni mancanti. Inoltre, Hopfield ritiene che ogni sistema fisico possa essere considerato come un potenziale dispositivo di memoria, qualora esso disponga di un certo numero di stati stabili, i quali fungano da attrattore per il sistema stesso. Sulla base di tale considerazione, egli si spinge a formulare la tesi secondo cui la stabilità e la collocazione di tali attrattori sono proprietà spontanee di sistemi costituiti, come accennato, da considerevoli quantità di neuroni reciprocamente interagenti. Le applicazioni delle reti di Hopfield riguardano principalmente la realizzazione di memorie associative, resistenti all'alterazione delle condizioni operative, e la soluzione di problemi d'ottimizzazione combinatoriale. Da un punto di vista strutturale, la rete di Hopfield costituisce una rete neurale ricorrente simmetrica, di cui è garantita la convergenza. Una rete ricorrente è un modello neurale in cui è presente un flusso bidirezionale d'informazioni; in altri termini, mentre nelle reti di tipo feedforward la propagazione dei segnali avviene unicamente, in maniera continua, nella direzione che conduce dagli ingressi alle uscite, nelle reti ricorrenti tale propagazione può anche manifestarsi da uno strato neurale successivo ad uno precedente, oppure tra neuroni appartenenti ad uno stesso strato, e persino tra un neurone e sé stesso. Un significativo e noto esempio di semplice rete ricorrente è dovuto a Jeffrey L. Elman (1990). Essa costituisce una variazione sul tema del percettrone multistrato, con esattamente tre strati e l'aggiunta di un insieme di neuroni "contestuali" nello strato d'ingresso. Le connessioni retroattive si propagano dallo strato intermedio (e nascosto) a tali unità contestuali, alle quali si assegna peso costante e pari all'unità. In ciascun istante, gli ingressi si propagano nel modo tradizionale e tipico delle reti feedforward, compresa l'applicazione dell'algoritmo d'apprendimento (solitamente la "backpropagation"). Le connessioni retroattive fisse hanno come effetto quello di mantenere una copia dei precedenti valori dei neuroni intermedi, dal momento che tale flusso avviene sempre prima della fase d'apprendimento. In questo modo la rete di Elman tiene conto del suo stato precedente, cosa che le consente di svolgere compiti di previsione di sequenze temporali che sono difficilmente alla portata dei percettroni multistrato convenzionali. Infine, un ultimo interessante tipo di rete è costituita dalla cosiddetta mappa auto-organizzante o rete SOM ("Self-Organizing Map"). Tale innovativo tipo di rete neurale è stata elaborata da Teuvo Kohonen dell'Università Tecnologica di Helsinki; il suo algoritmo d'apprendimento è senza dubbio una brillante formulazione di apprendimento non supervisionato, e ha dato luogo a un gran numero di applicazioni nell'ambito dei problemi di classificazione. Una mappa o rete SOM è basata essenzialmente su un reticolo o griglia di neuroni artificiali i cui pesi sono continuamente adattati ai vettori presentati in ingresso nel relativo insieme di addestramento. Tali vettori possono essere di dimensione generica, anche se nella maggior parte delle applicazioni essa è piuttosto alta. Per ciò che riguarda le uscite della rete, al contrario, ci si limita di solito ad una dimensione massima pari a tre, il che consente di dare luogo a mappe 2D o 3D. In termini più analitici, l'algoritmo può essere agevolmente descritto, come accennato, nei termini di un insieme di neuroni artificiali, ciascuno con una precisa collocazione sulla mappa rappresentativa degli "output", che prendono parte ad un processo noto come "winner takes all" ("Il vincitore piglia tutto"), al termine del quale il nodo avente un vettore di pesi più vicino ad un certo "input" è dichiarato vincitore, mentre i pesi stessi sono aggiornati in modo da avvicinarli al vettore in ingresso. Ciascun nodo ha un certo numero di nodi adiacenti. Quando un nodo vince una competizione, anche i pesi dei nodi adiacenti sono modificati, secondo la regola generale che più un nodo è lontano dal nodo vincitore, meno marcata deve essere la variazione dei suoi pesi. Il processo è quindi ripetuto per ogni vettore dell'insieme di "training", per un certo numero, solitamente grande, di cicli. Va da sé che ingressi diversi producono vincitori diversi. Operando in tal modo, la mappa riesce alfine ad associare i nodi d'uscita con i gruppi o schemi ricorrenti nell'insieme dei dati in ingresso. Se questi schemi sono riconoscibili, essi possono essere associati ai corrispondenti nodi della rete addestrata. In maniera analoga a quella della maggioranza delle reti neurali artificiali, anche la mappa o rete SOM può operare in due distinte modalità: In generale una ANN ("Attractor Neural Network") è una rete di nodi (es: biologicamente ispirati), spesso interconnessi in modo ricorsivo, la cui dinamica nel tempo stabilisce un assestamento in un particolare modo di oscillazione. Questo modo di oscillazione può essere stazionario, variante nel tempo o di tipo stocastico ed è chiamato il suo 'attrattore'. In neuroscienza teorica diversi tipi di reti ad attrattori sono state associate a differenti funzioni, come: memoria, attenzione, condotta del moto e classificazione. Più precisamente, una rete ad attrattori è una rete di N nodi connessi in modo che la loro intera dinamica diventi stabile in uno spazio D dimensionale, dove solitamente N»D. Ciò assume che non vi sia più input dall'esterno del sistema. La stabilità nello stato ad attrattore indica l'esistenza di uno stato stabile in una qualche varietà algebrica (es: linea, cerchio, piano, toroide). L'utilità dei modelli di rete neurale sta nel fatto che queste possono essere usate per comprendere una funzione utilizzando solo le osservazioni sui dati. Ciò è particolarmente utile nelle applicazioni in cui la complessità dei dati o la difficoltà di elaborazione rende la progettazione di una tale funzione impraticabile con i normali procedimenti di analisi manuale. I compiti a cui le reti neurali sono applicate possono essere classificate nelle seguenti grandi categorie di applicazioni: Le aree di applicazione includono i sistemi di controllo (controllo di veicoli, controllo di processi), simulatori di giochi e processi decisionali (backgammon, scacchi), riconoscimento di pattern (sistemi radar, identificazione di volti, riconoscimento di oggetti, ecc), riconoscimenti di sequenze (riconoscimento di gesti, riconoscimento vocale, OCR), diagnosi medica, applicazioni finanziarie, data mining, filtri spam per e-mail. Le reti neurali per come sono costruite lavorano in parallelo e sono quindi in grado di trattare molti dati. Si tratta in sostanza di un sofisticato sistema di tipo statistico dotato di una buona immunità al rumore; se alcune unità del sistema dovessero funzionare male, la rete nel suo complesso avrebbe delle riduzioni di prestazioni ma difficilmente andrebbe incontro ad un blocco del sistema. I software di ultima generazione dedicati alle reti neurali richiedono comunque buone conoscenze statistiche; il grado di apparente utilizzabilità immediata non deve trarre in inganno, pur permettendo all'utente di effettuare subito previsioni o classificazioni, seppure con i limiti del caso. Da un punto di vista industriale, risultano efficaci quando si dispone di dati storici che possono essere trattati con gli algoritmi neurali. Ciò è di interesse per la produzione perché permette di estrarre dati e modelli senza effettuare ulteriori prove e sperimentazioni. I modelli prodotti dalle reti neurali, anche se molto efficienti, non sono spiegabili in linguaggio simbolico umano: i risultati vanno accettati "così come sono", da cui anche la definizione inglese delle reti neurali come "black box": in altre parole, a differenza di un sistema algoritmico, dove si può esaminare passo-passo il percorso che dall'input genera l'output, una rete neurale è in grado di generare un risultato valido, o comunque con una alta probabilità di essere accettabile, ma non è possibile spiegare come e perché tale risultato sia stato generato. Come per qualsiasi algoritmo di modellazione, anche le reti neurali sono efficienti solo se le variabili predittive sono scelte con cura. Non sono in grado di trattare in modo efficiente variabili di tipo categorico (per esempio, il nome della città) con molti valori diversi. Necessitano di una fase di addestramento del sistema che fissi i pesi dei singoli neuroni e questa fase può richiedere molto tempo, se il numero dei record e delle variabili analizzate è molto grande. Non esistono teoremi o modelli che permettano di definire la rete ottima, quindi la riuscita di una rete dipende molto dall'esperienza del creatore. Le reti neurali vengono solitamente usate in contesti dove i dati possono essere parzialmente errati oppure dove non esistano modelli analitici in grado di affrontare il problema. Un loro tipico utilizzo è nei software di OCR, nei sistemi di riconoscimento facciale e più in generale nei sistemi che si occupano di trattare dati soggetti a errori o rumore. Esse sono anche uno degli strumenti maggiormente utilizzati nelle analisi di Data mining. Le reti neurali vengono anche utilizzate come mezzo per previsioni nell'analisi finanziaria o meteorologica. Negli ultimi anni è aumentata notevolmente la loro importanza anche nel campo della bioinformatica nel quale vengono utilizzate per la ricerca di pattern funzionali e/o strutturali in proteine e acidi nucleici. Mostrando opportunamente una lunga serie di input (fase di training o apprendimento), la rete è in grado di fornire l'output più probabile. Negli ultimi anni inoltre sono in corso studi per il loro utilizzo nella previsione degli attacchi Epilettici (Analisi dei Dati provenienti dall' EEG). Recenti studi hanno dimostrato buone potenzialità delle reti neurali in sismologia per la localizzazione di epicentri di terremoti e predizione della loro intensità.
Rete neurale artificiale
Nell'ambito dell'inferenza statistica bayesiana, una distribuzione di probabilità a priori, detta spesso anche distribuzione a priori, di una quantità incognita "p" (per esempio, supponiamo "p" essere la proporzione di votanti che voteranno per il politico Rossi in un'elezione futura) è la distribuzione di probabilità che esprimerebbe l'incertezza di "p" prima che i "dati" (per esempio, un sondaggio di opinione) siano presi in considerazione. Il proposito è di attribuire incertezza piuttosto che casualità a una quantità incerta. La quantità incognita può essere un parametro o una variabile latente. Si applica il teorema di Bayes, moltiplicando la distribuzione a priori per la funzione di verosimiglianza e quindi normalizzando, per ottenere la distribuzione di probabilità a posteriori, la quale è la distribuzione condizionata della quantità incerta una volta ottenuti i dati. Spesso una distribuzione a priori è l'accertamento soggettivo (elicitazione) di una persona esperta. Quando possibile, alcuni sceglieranno una "distribuzione a priori coniugata" per rendere più semplice il calcolo della distribuzione a posteriori. I parametri di una distribuzione a priori sono chiamati "iperparametri", per distinguerli dai parametri del modello dei dati sottostanti. Per esempio, se si sta usando una distribuzione beta per modellare la distribuzione di un parametro "p" di una distribuzione di Bernoulli, allora: Una "distribuzione a priori informativa" esprime una specifica, definita informazione circa una variabile. Un esempio è la distribuzione a priori per la temperatura di domattina. Un approccio ragionevole è costruire la distribuzione a priori come una distribuzione normale con valore atteso uguale alla temperatura mattutina di oggi, con una varianza uguale alla varianza giorno per giorno della temperatura atmosferica, oppure come una distribuzione della temperatura per quel tal giorno dell'anno. Questo esempio ha una proprietà in comune con molte distribuzioni a priori, ovvero che la distribuzione a posteriori di un problema (temperatura odierna) diventa la distribuzione a priori per un altro problema (temperatura di domani); l'evidenza preesistente, che è già stata tenuta in conto, è parte della distribuzione a priori e come ulteriore evidenza viene accumulata. La distribuzione a priori è largamente determinata dall'evidenza piuttosto che da qualche assunzione originale, sempre che l'assunzione originale ammetta la possibilità (ossia sia compatibile) con quello che l'evidenza suggerisce. I termini "a priori" e "a posteriori" sono generalmente relativi a un dato o un'osservazione specifica. Una "distribuzione a priori non informativa" esprime vaghezza o informazione a carattere generale circa una variabile. Il termine "non informativa" può essere un po' fuorviante; spesso, tale tipo di distribuzione è chiamata "a priori non molto informativa", oppure "a priori oggettiva", cioè una distribuzione che non è soggettivamente esplicitata. Le distribuzioni a priori non informative possono esprimere informazione "oggettiva" come ad esempio "la variabile è positiva" oppure "la variabile è minore di tal limite". La più semplice e vecchia regola per determinare una distribuzione a priori non informativa è il principio d'indifferenza, il quale assegna a tutti gli eventi uguale probabilità. In problemi di stima parametrica, l'uso di una distribuzione a priori non informativa dà risultati che sono non troppo differenti dall'analisi statistica convenzionale. Questo accade in quanto la funzione di verosimiglianza fornisce la parte maggiore dell'informazione rispetto a quella fornita dalla distribuzione a priori non informativa nel determinare una distribuzione a posteriori. Vari tentativi sono stati fatti per trovare probabilità a priori, cioè distribuzioni di probabilità in un certo senso logicamente richieste dalla natura di uno stato di incertezza; queste sono soggette a controversia filosofica, con i sostenitori del metodo bayesiano approssimativamente divisi in due scuole: i "bayesiani oggettivistici", che credono che tali distribuzioni a priori esistano in molte situazioni, e i "bayesiani soggettivisti" che credono che in pratica le distribuzioni a priori rappresentino giudizi di opinione che non possono essere rigorosamente giustificati. Per la maggiore le più forti argomentazioni a favore della scuola oggettivistica furono date da Edwin T. Jaynes. Come esempio di una distribuzione a priori, dovuta a, consideriamo una situazione in cui sappiamo che una pallina è nascosta sotto una di tre tazze rovesciate, A, B o C, ma nessun'altra informazione è disponibile circa la sua posizione. In questo caso una distribuzione a priori uniforme di formula_1 sembra intuitivamente verosimile la sola scelta ragionevole. Più formalmente, noi possiamo vedere che il problema rimane lo stesso se scambiamo le lettere identificative "A", "B" e "C" delle tazze. Sarebbe perciò strano scegliere una distribuzione a priori per la quale una permutazione delle lettere causerebbe un cambio nella nostra predizione circa la posizione dove la pallina sarà trovata; la distribuzione a priori uniforme è la sola che preserva questa invarianza. Se si accetta questo principio di invarianza allora si può vedere che la distribuzione a priori uniforme è la distribuzione logicamente corretta che rappresenta questo stato di conoscenza a priori. Si avrà notato che questa distribuzione a priori è "oggettiva" nel senso di essere la scelta corretta per rappresentare un particolare stato di conoscenza, ma non è oggettiva nel senso di essere una caratteristica del sistema osservato indipendente dall'osservatore: in realtà la pallina esiste sotto una specifica tazza e in questa situazione ha solo senso parlare di probabilità se c'è un osservatore con una conoscenza limitata del sistema ossia della posizione della pallina sotto le tazze. Come esempio più controverso, Jaynes pubblicò un argomento basato sui gruppi di Lie suggerente che la distribuzione a priori rappresentante in maniera completa l'incertezza sarebbe la distribuzione a priori di Haldane "p"(1 − "p"). L'esempio fornito da Jaynes è quello di trovare un chimico in un laboratorio e di chiedergli di eseguire ripetutamente degli esperimenti di dissoluzione in acqua. La distribuzione a priori di Haldane da prevalentemente la maggiore probabilità agli eventi formula_2 and formula_3, indicando che il campione ogni volta si scioglierà oppure no, con uguale probabilità. Tuttavia se sono stati osservati campioni non disciogliersi in un esperimento e disciogliersi in un altro, allora questa distribuzione a priori è aggiornata alla distribuzione uniforme sull'intervallo [0, 1]. Questo risultato si ottiene applicando il teorema di Bayes all'insieme di dati consistente in un'osservazione di dissoluzione e una di non dissoluzione, usando la distribuzione a priori precedente. sulla base che essa fornisce una distribuzione a posteriori impropria che pone il 100% del contenuto di probabilità sia a "p" = 0 o a "p" = 1 se un numero finito di esperimenti ha dato lo stesso risultato (ad esempio il discioglimento). La distribuzione a priori di Jeffreys "p"(1 − "p") è perciò preferita ("cfr." sotto). Se lo spazio parametrico X è dotato di una struttura di gruppo naturale che lascia invariato il nostro stato di conoscenza bayesiano, allora la distribuzione a priori può essere costruita proporzionale alla Misura di Haar. Questo può essere visto come una generalizzazione del principio di invarianza che giustificava la distribuzione a priori uniforme dell'esempio delle tre tazze visto sopra. Per esempio, in fisica ci si aspetta che un esperimento dia i medesimi risultati indipendentemente dalla scelta dell'origine del sistema di coordinate. Questo induce la struttura gruppale del gruppo delle traslazioni su "X", il quale determina la distribuzione di probabilità a priori come una distribuzione a priori impropria costante. Analogamente alcuni sistemi fisici presentano un'invarianza di scala (ossia i risultati sperimentali sono indipendenti dal fatto che, ad esempio, usiamo centimetri o pollici). In tal caso il gruppo di scala è la struttura di gruppo naturale, e la corrispondente distribuzione a priori su "X" è proporzionale a 1/"x". Qualche volta risulta importante se viene usata la misura di Haar invariante a sinistra piuttosto che quella invariante a destra. Per esempio, le misure di Haar invarianti a destra e a sinistra sul gruppo affine non sono uguali. Berger (1985, p. 413) arguisce che la scelta corretta è la misura di Haar invariante a destra. Un'altra idea, supportata da Edwin T. Jaynes, è di usare il principio di massima entropia (MAXENT). La motivazione è che l'entropia di Shannon di una distribuzione di probabilità misura l'ammontare di informazione contenuta nella distribuzione. Maggiore è l'entropia, minore è l'informazione fornita dalla distribuzione. Perciò, mediante la massimizzazione dell'entropia sopra un adeguato insieme di distribuzioni di probabilità su "X", si trova la distribuzione che è meno informativa nel senso che essa contiene il minore ammontare di informazione consistente con le costrizioni definite dall'insieme scelto. Per esempio, la distribuzione a priori di massima entropia su uno spazio discreto, dato solo il fatto che la probabilità è normalizzata a 1, è la distribuzione a priori che assegna uguale probabilità ad ogni stato. Mentre nel caso continuo, la distribuzione a priori di massima entropia con densità normalizzata, media nulla e varianza unitaria, è la ben nota distribuzione normale. Il principio di minima entropia incrociata generalizza il principio di massima entropia al caso di "aggiornamento" di una distribuzione a priori arbitraria con adeguate costrizioni nel senso di massima entropia. Un'idea collegata, la distribuzione a priori di riferimento, fu introdotta da José-Miguel Bernardo. Qui l'idea è di massimizzare il valore atteso della divergenza di Kullback–Leibler della distribuzione a posteriori rispetto alla distribuzione a priori. Questo massimizza l'informazione attesa riguardante "X" quando la densità a priori è "p"("x"); perciò, in un certo senso, "p"("x") è la distribuzione a priori "meno informativa" riguardo X. La distribuzione a priori di riferimento è definita nel limite asintotico, cioè si considera il limite delle distribuzioni a priori così ottenute come il numero di dati va all'infinito. Nei problemi multivariati spesso vengono scelte come distribuzioni a priori oggettive le distribuzioni a priori di riferimento, dato che altre scelte (ad esempio la regola di Jeffreys possono portare a distribuzioni a priori dal comportamento problematico. Distribuzioni a priori oggettive possono anche essere derivate da altri principi, come le teorie dell'informazione o le teorie della codifica (vedi ad esempio lunghezza di descrizione minima) oppure della statistica frequentista. Problemi filosofici legati alle distribuzioni a priori non informative sono associati alla scelta di una metrica appropriata o scala di misurazione. Supponiamo di volere una distribuzione a priori per la valocità di un corridore a noi sconosciuto. Potremmo specificare, diciamo, per la sua velocità una distribuzione a priori di tipo normale, ma in alternativa potremmo specificare una distribuzione a priori normale per il tempo impiegato a percorrere 100 metri, il quale è proporzionale al reciproco della prima distribuzione a priori. Queste due distribuzioni a priori sono effettivamente differenti, ma non è chiaro quale delle due preferire. Il metodo, spesso sopravvalutato, di trasformazione dei gruppi di Jaynes può rispondere a tale questione in varie situazioni. In maniera simile, se ci è chiesto di stimare una proporzione incognita tra 0 e 1, noi possiamo affermare che tutte le proporzioni sono ugualmente probabili ed usare una distribuzione a priori uniforme. Alternativamente, potremmo dire che tutti gli ordini di grandezza per la proporzione sono ugualmente probabili, e scegliere la distribuzione a priori logaritmica, la quale è la distribuzione a priori uniforme sul logaritmo della proporzione. La distribuzione a priori di Jeffreys tenta di risolvere questo problema calcolando una distribuzione a priori che esprime la medesima credenza indipendentemente dalla metrica utilizzata. La distribuzione a priori di Jeffreys per una proporzione incognita "p" è "p"(1 − "p"), che differisce da quella raccomandata da Jaynes. Distribuzioni a priori basate sulla nozione di probabilità algoritmica vengono impiegate nel campo dell'inferenza induttiva come base induttiva in configurazioni del tutto generali. Problemi pratici associati con le distribuzioni a priori non informative includono il requisito che la distribuzione a posteriori sia propria. Le distribuzioni a priori non informative su variabili continue, non limitate sono improprie. Questo non è necessariamente un problema se la distribuzione a posteriori è propria. Un altro argomento importante è quello in cui se una distribuzione a priori non informativa viene usata in maniera regolare, cioè con svariati insiemi di dati, allora essa avrebbe buone proprietà frequentiste. Normalmente un bayesiano non dovrebbe porsi questo problema, ma potrebbe essere importante farlo in questa situazione. Per esempio, uno potrebbe volere che qualsiasi regola di decisione basata sulla distribuzione a posteriori sia ammissibile sotto la funzionedi perdita adottata. Sfortunatamente, l'ammissibilità è difficile da verificare, nonostante vari risultati siano noti ("cfr." ad esempio, Berger and Strawderman, 1996). Il problema è particolarmente acuto con i modelli di Bayes gerarchici; le distribuzioni a priori usuali (ad esempio la distribuzione a priori di Jeffreys) possono dare regole di decisione praticamente inammissibili se impiegate ai livelli gerarchici più elevati. Se il teorema di Bayes viene scritto come allora è chiaro che si otterrebbe il medesimo risultato se tutte le probabilità a priori "P"("A") e "P"("A") fossero moltiplicate per una data costante; lo stesso sarebbe vero per una variabile casuale continua. Se la sommatoria al denominatore converge, le probabilità a posteriori sommeranno (o integreranno) ancora a 1 anche se i valori della distribuzione a priori non lo fanno, e in tal modo può solo essere necessario richiedere alle distribuzioni a priori di essere specificate nella proporzione corretta. Spingendo oltre questa idea, in molti casi non è neanche richiesto che la somma o l'integrale dei valori della distribuzione a priori sia finita per ottenere risposte significative circa le probabilità a posteriori. Quando questo è il caso, la distribuzione a priori è chiamata distribuzione a priori impropria. Tuttavia, se la distribuzione a priori è impropria, allora non è necessario che la distribuzione a posteriori sia propria. Questo è chiaro nella situazione in cui l'evento "B" è indipendente da tutti gli altri eventi "A". Vari statistici usano le distribuzioni a priori improprie come distribuzioni a priori non informative. Per esempio, se hanno bisogno di una distribuzione a priori per la media e la varianza di una variabile casuale, allora essi assumono "p"("m", "v") ~ 1/"v" (per "v" > 0) il che suggerirebbe che qualsiasi valore per la media è "ugualmente probabile" e che un valore per la varianza positiva diventa "meno probabile" in proporzione inversa al suo valore. Molti autori (Lindley, 1973; De Groot, 1937; Kass and Wasserman, 1996) mettono in guardia contro il pericolo di sovra-interpretare tali distribuzioni a priori poiché non sono densità di probabilità. La loro sola rilevanza che esse hanno si trova nella distribuzione a posteriori corrispondente, fintanto che questa è ben definita per tutte le osservazioni. (La distribuzione a priori di Haldane è un tipico controesempio.) Esempi di distribuzioni a priori includono: Il concetto di probabilità algoritmica fornisce una via per specificare la probabilità delle distribuzioni a priori basata sulla complessità relativa di modelli presi in considerazione e tra loro alternativi.
Distribuzione di probabilità a priori
0
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri, appunto) dei valori esistenti. Sono indici di posizione: Un modo per rappresentare graficamente alcuni indici di posizione è il box-plot.
Indice di posizione
La statistica descrittiva è la branca della statistica che studia i criteri di rilevazione, classificazione, sintesi e rappresentazione dei dati appresi dallo studio di una popolazione o di una parte di essa (detta campione). I risultati ottenuti nell'ambito della statistica descrittiva si possono definire certi, a meno di errori di misurazione dovuti al caso, che sono in media pari a zero. Da questo punto di vista si differenzia dalla statistica inferenziale, alla quale sono associati inoltre errori di valutazione. La rilevazione dei dati di un'intera popolazione è detta "censimento". Quando invece l'indagine si concentra su un determinato campione rappresentativo, si parla di "sondaggio". I dati raccolti possono essere classificati attraverso distribuzioni semplici o complesse: I dati raccolti possono essere sintetizzati attraverso famiglie di indici, quali: I dati di un'indagine possono essere rappresentati attraverso molteplici rappresentazioni grafiche, tra cui:
Statistica descrittiva
0
Nell'ambito dell'inferenza statistica bayesiana, una distribuzione di probabilità a priori, detta spesso anche distribuzione a priori, di una quantità incognita "p" (per esempio, supponiamo "p" essere la proporzione di votanti che voteranno per il politico Rossi in un'elezione futura) è la distribuzione di probabilità che esprimerebbe l'incertezza di "p" prima che i "dati" (per esempio, un sondaggio di opinione) siano presi in considerazione. Il proposito è di attribuire incertezza piuttosto che casualità a una quantità incerta. La quantità incognita può essere un parametro o una variabile latente. Si applica il teorema di Bayes, moltiplicando la distribuzione a priori per la funzione di verosimiglianza e quindi normalizzando, per ottenere la distribuzione di probabilità a posteriori, la quale è la distribuzione condizionata della quantità incerta una volta ottenuti i dati. Spesso una distribuzione a priori è l'accertamento soggettivo (elicitazione) di una persona esperta. Quando possibile, alcuni sceglieranno una "distribuzione a priori coniugata" per rendere più semplice il calcolo della distribuzione a posteriori. I parametri di una distribuzione a priori sono chiamati "iperparametri", per distinguerli dai parametri del modello dei dati sottostanti. Per esempio, se si sta usando una distribuzione beta per modellare la distribuzione di un parametro "p" di una distribuzione di Bernoulli, allora: Una "distribuzione a priori informativa" esprime una specifica, definita informazione circa una variabile. Un esempio è la distribuzione a priori per la temperatura di domattina. Un approccio ragionevole è costruire la distribuzione a priori come una distribuzione normale con valore atteso uguale alla temperatura mattutina di oggi, con una varianza uguale alla varianza giorno per giorno della temperatura atmosferica, oppure come una distribuzione della temperatura per quel tal giorno dell'anno. Questo esempio ha una proprietà in comune con molte distribuzioni a priori, ovvero che la distribuzione a posteriori di un problema (temperatura odierna) diventa la distribuzione a priori per un altro problema (temperatura di domani); l'evidenza preesistente, che è già stata tenuta in conto, è parte della distribuzione a priori e come ulteriore evidenza viene accumulata. La distribuzione a priori è largamente determinata dall'evidenza piuttosto che da qualche assunzione originale, sempre che l'assunzione originale ammetta la possibilità (ossia sia compatibile) con quello che l'evidenza suggerisce. I termini "a priori" e "a posteriori" sono generalmente relativi a un dato o un'osservazione specifica. Una "distribuzione a priori non informativa" esprime vaghezza o informazione a carattere generale circa una variabile. Il termine "non informativa" può essere un po' fuorviante; spesso, tale tipo di distribuzione è chiamata "a priori non molto informativa", oppure "a priori oggettiva", cioè una distribuzione che non è soggettivamente esplicitata. Le distribuzioni a priori non informative possono esprimere informazione "oggettiva" come ad esempio "la variabile è positiva" oppure "la variabile è minore di tal limite". La più semplice e vecchia regola per determinare una distribuzione a priori non informativa è il principio d'indifferenza, il quale assegna a tutti gli eventi uguale probabilità. In problemi di stima parametrica, l'uso di una distribuzione a priori non informativa dà risultati che sono non troppo differenti dall'analisi statistica convenzionale. Questo accade in quanto la funzione di verosimiglianza fornisce la parte maggiore dell'informazione rispetto a quella fornita dalla distribuzione a priori non informativa nel determinare una distribuzione a posteriori. Vari tentativi sono stati fatti per trovare probabilità a priori, cioè distribuzioni di probabilità in un certo senso logicamente richieste dalla natura di uno stato di incertezza; queste sono soggette a controversia filosofica, con i sostenitori del metodo bayesiano approssimativamente divisi in due scuole: i "bayesiani oggettivistici", che credono che tali distribuzioni a priori esistano in molte situazioni, e i "bayesiani soggettivisti" che credono che in pratica le distribuzioni a priori rappresentino giudizi di opinione che non possono essere rigorosamente giustificati. Per la maggiore le più forti argomentazioni a favore della scuola oggettivistica furono date da Edwin T. Jaynes. Come esempio di una distribuzione a priori, dovuta a, consideriamo una situazione in cui sappiamo che una pallina è nascosta sotto una di tre tazze rovesciate, A, B o C, ma nessun'altra informazione è disponibile circa la sua posizione. In questo caso una distribuzione a priori uniforme di formula_1 sembra intuitivamente verosimile la sola scelta ragionevole. Più formalmente, noi possiamo vedere che il problema rimane lo stesso se scambiamo le lettere identificative "A", "B" e "C" delle tazze. Sarebbe perciò strano scegliere una distribuzione a priori per la quale una permutazione delle lettere causerebbe un cambio nella nostra predizione circa la posizione dove la pallina sarà trovata; la distribuzione a priori uniforme è la sola che preserva questa invarianza. Se si accetta questo principio di invarianza allora si può vedere che la distribuzione a priori uniforme è la distribuzione logicamente corretta che rappresenta questo stato di conoscenza a priori. Si avrà notato che questa distribuzione a priori è "oggettiva" nel senso di essere la scelta corretta per rappresentare un particolare stato di conoscenza, ma non è oggettiva nel senso di essere una caratteristica del sistema osservato indipendente dall'osservatore: in realtà la pallina esiste sotto una specifica tazza e in questa situazione ha solo senso parlare di probabilità se c'è un osservatore con una conoscenza limitata del sistema ossia della posizione della pallina sotto le tazze. Come esempio più controverso, Jaynes pubblicò un argomento basato sui gruppi di Lie suggerente che la distribuzione a priori rappresentante in maniera completa l'incertezza sarebbe la distribuzione a priori di Haldane "p"(1 − "p"). L'esempio fornito da Jaynes è quello di trovare un chimico in un laboratorio e di chiedergli di eseguire ripetutamente degli esperimenti di dissoluzione in acqua. La distribuzione a priori di Haldane da prevalentemente la maggiore probabilità agli eventi formula_2 and formula_3, indicando che il campione ogni volta si scioglierà oppure no, con uguale probabilità. Tuttavia se sono stati osservati campioni non disciogliersi in un esperimento e disciogliersi in un altro, allora questa distribuzione a priori è aggiornata alla distribuzione uniforme sull'intervallo [0, 1]. Questo risultato si ottiene applicando il teorema di Bayes all'insieme di dati consistente in un'osservazione di dissoluzione e una di non dissoluzione, usando la distribuzione a priori precedente. sulla base che essa fornisce una distribuzione a posteriori impropria che pone il 100% del contenuto di probabilità sia a "p" = 0 o a "p" = 1 se un numero finito di esperimenti ha dato lo stesso risultato (ad esempio il discioglimento). La distribuzione a priori di Jeffreys "p"(1 − "p") è perciò preferita ("cfr." sotto). Se lo spazio parametrico X è dotato di una struttura di gruppo naturale che lascia invariato il nostro stato di conoscenza bayesiano, allora la distribuzione a priori può essere costruita proporzionale alla Misura di Haar. Questo può essere visto come una generalizzazione del principio di invarianza che giustificava la distribuzione a priori uniforme dell'esempio delle tre tazze visto sopra. Per esempio, in fisica ci si aspetta che un esperimento dia i medesimi risultati indipendentemente dalla scelta dell'origine del sistema di coordinate. Questo induce la struttura gruppale del gruppo delle traslazioni su "X", il quale determina la distribuzione di probabilità a priori come una distribuzione a priori impropria costante. Analogamente alcuni sistemi fisici presentano un'invarianza di scala (ossia i risultati sperimentali sono indipendenti dal fatto che, ad esempio, usiamo centimetri o pollici). In tal caso il gruppo di scala è la struttura di gruppo naturale, e la corrispondente distribuzione a priori su "X" è proporzionale a 1/"x". Qualche volta risulta importante se viene usata la misura di Haar invariante a sinistra piuttosto che quella invariante a destra. Per esempio, le misure di Haar invarianti a destra e a sinistra sul gruppo affine non sono uguali. Berger (1985, p. 413) arguisce che la scelta corretta è la misura di Haar invariante a destra. Un'altra idea, supportata da Edwin T. Jaynes, è di usare il principio di massima entropia (MAXENT). La motivazione è che l'entropia di Shannon di una distribuzione di probabilità misura l'ammontare di informazione contenuta nella distribuzione. Maggiore è l'entropia, minore è l'informazione fornita dalla distribuzione. Perciò, mediante la massimizzazione dell'entropia sopra un adeguato insieme di distribuzioni di probabilità su "X", si trova la distribuzione che è meno informativa nel senso che essa contiene il minore ammontare di informazione consistente con le costrizioni definite dall'insieme scelto. Per esempio, la distribuzione a priori di massima entropia su uno spazio discreto, dato solo il fatto che la probabilità è normalizzata a 1, è la distribuzione a priori che assegna uguale probabilità ad ogni stato. Mentre nel caso continuo, la distribuzione a priori di massima entropia con densità normalizzata, media nulla e varianza unitaria, è la ben nota distribuzione normale. Il principio di minima entropia incrociata generalizza il principio di massima entropia al caso di "aggiornamento" di una distribuzione a priori arbitraria con adeguate costrizioni nel senso di massima entropia. Un'idea collegata, la distribuzione a priori di riferimento, fu introdotta da José-Miguel Bernardo. Qui l'idea è di massimizzare il valore atteso della divergenza di Kullback–Leibler della distribuzione a posteriori rispetto alla distribuzione a priori. Questo massimizza l'informazione attesa riguardante "X" quando la densità a priori è "p"("x"); perciò, in un certo senso, "p"("x") è la distribuzione a priori "meno informativa" riguardo X. La distribuzione a priori di riferimento è definita nel limite asintotico, cioè si considera il limite delle distribuzioni a priori così ottenute come il numero di dati va all'infinito. Nei problemi multivariati spesso vengono scelte come distribuzioni a priori oggettive le distribuzioni a priori di riferimento, dato che altre scelte (ad esempio la regola di Jeffreys possono portare a distribuzioni a priori dal comportamento problematico. Distribuzioni a priori oggettive possono anche essere derivate da altri principi, come le teorie dell'informazione o le teorie della codifica (vedi ad esempio lunghezza di descrizione minima) oppure della statistica frequentista. Problemi filosofici legati alle distribuzioni a priori non informative sono associati alla scelta di una metrica appropriata o scala di misurazione. Supponiamo di volere una distribuzione a priori per la valocità di un corridore a noi sconosciuto. Potremmo specificare, diciamo, per la sua velocità una distribuzione a priori di tipo normale, ma in alternativa potremmo specificare una distribuzione a priori normale per il tempo impiegato a percorrere 100 metri, il quale è proporzionale al reciproco della prima distribuzione a priori. Queste due distribuzioni a priori sono effettivamente differenti, ma non è chiaro quale delle due preferire. Il metodo, spesso sopravvalutato, di trasformazione dei gruppi di Jaynes può rispondere a tale questione in varie situazioni. In maniera simile, se ci è chiesto di stimare una proporzione incognita tra 0 e 1, noi possiamo affermare che tutte le proporzioni sono ugualmente probabili ed usare una distribuzione a priori uniforme. Alternativamente, potremmo dire che tutti gli ordini di grandezza per la proporzione sono ugualmente probabili, e scegliere la distribuzione a priori logaritmica, la quale è la distribuzione a priori uniforme sul logaritmo della proporzione. La distribuzione a priori di Jeffreys tenta di risolvere questo problema calcolando una distribuzione a priori che esprime la medesima credenza indipendentemente dalla metrica utilizzata. La distribuzione a priori di Jeffreys per una proporzione incognita "p" è "p"(1 − "p"), che differisce da quella raccomandata da Jaynes. Distribuzioni a priori basate sulla nozione di probabilità algoritmica vengono impiegate nel campo dell'inferenza induttiva come base induttiva in configurazioni del tutto generali. Problemi pratici associati con le distribuzioni a priori non informative includono il requisito che la distribuzione a posteriori sia propria. Le distribuzioni a priori non informative su variabili continue, non limitate sono improprie. Questo non è necessariamente un problema se la distribuzione a posteriori è propria. Un altro argomento importante è quello in cui se una distribuzione a priori non informativa viene usata in maniera regolare, cioè con svariati insiemi di dati, allora essa avrebbe buone proprietà frequentiste. Normalmente un bayesiano non dovrebbe porsi questo problema, ma potrebbe essere importante farlo in questa situazione. Per esempio, uno potrebbe volere che qualsiasi regola di decisione basata sulla distribuzione a posteriori sia ammissibile sotto la funzionedi perdita adottata. Sfortunatamente, l'ammissibilità è difficile da verificare, nonostante vari risultati siano noti ("cfr." ad esempio, Berger and Strawderman, 1996). Il problema è particolarmente acuto con i modelli di Bayes gerarchici; le distribuzioni a priori usuali (ad esempio la distribuzione a priori di Jeffreys) possono dare regole di decisione praticamente inammissibili se impiegate ai livelli gerarchici più elevati. Se il teorema di Bayes viene scritto come allora è chiaro che si otterrebbe il medesimo risultato se tutte le probabilità a priori "P"("A") e "P"("A") fossero moltiplicate per una data costante; lo stesso sarebbe vero per una variabile casuale continua. Se la sommatoria al denominatore converge, le probabilità a posteriori sommeranno (o integreranno) ancora a 1 anche se i valori della distribuzione a priori non lo fanno, e in tal modo può solo essere necessario richiedere alle distribuzioni a priori di essere specificate nella proporzione corretta. Spingendo oltre questa idea, in molti casi non è neanche richiesto che la somma o l'integrale dei valori della distribuzione a priori sia finita per ottenere risposte significative circa le probabilità a posteriori. Quando questo è il caso, la distribuzione a priori è chiamata distribuzione a priori impropria. Tuttavia, se la distribuzione a priori è impropria, allora non è necessario che la distribuzione a posteriori sia propria. Questo è chiaro nella situazione in cui l'evento "B" è indipendente da tutti gli altri eventi "A". Vari statistici usano le distribuzioni a priori improprie come distribuzioni a priori non informative. Per esempio, se hanno bisogno di una distribuzione a priori per la media e la varianza di una variabile casuale, allora essi assumono "p"("m", "v") ~ 1/"v" (per "v" > 0) il che suggerirebbe che qualsiasi valore per la media è "ugualmente probabile" e che un valore per la varianza positiva diventa "meno probabile" in proporzione inversa al suo valore. Molti autori (Lindley, 1973; De Groot, 1937; Kass and Wasserman, 1996) mettono in guardia contro il pericolo di sovra-interpretare tali distribuzioni a priori poiché non sono densità di probabilità. La loro sola rilevanza che esse hanno si trova nella distribuzione a posteriori corrispondente, fintanto che questa è ben definita per tutte le osservazioni. (La distribuzione a priori di Haldane è un tipico controesempio.) Esempi di distribuzioni a priori includono: Il concetto di probabilità algoritmica fornisce una via per specificare la probabilità delle distribuzioni a priori basata sulla complessità relativa di modelli presi in considerazione e tra loro alternativi.
Distribuzione di probabilità a priori
Nell'ambito della scienza dei dati l'analisi dei dati è un processo di ispezione, pulizia, trasformazione e modellazione di dati con il fine di evidenziare informazioni che suggeriscano conclusioni e supportino le decisioni strategiche aziendali. L'analisi di dati ha molti approcci e sfaccettature, il che comprende tecniche diversissime tra loro che si riconoscono con una serie di definizioni varie nel commercio, le scienze naturali e sociali. Il data mining è una tecnica particolare di analisi dei dati che si focalizza nella modellazione e scoperta di conoscenza per scopi predittivi piuttosto che descrittivi. Il business intelligence identifica l'analisi di dati che si basa fondamentalmente sull'aggregazione, focalizzandosi sulle informazioni aziendali. Nell'ambito dei big data si parla di big data analytics. Nelle applicazioni statistiche, gli studiosi dividono l'analisi dei dati in statistica descrittiva, analisi dei dati esplorativa (ADE) e analisi dei dati di conferma (ADC). L'ADE si concentra sullo scoprire nuove caratteristiche presenti nei dati, mentre l'ADC nel confermare o falsificare le ipotesi esistenti. L'analisi predittiva si concentra sull'applicazione di modelli statistici o strutturali per classificazione o il forecasting predittivo, mentre l'analisi testuale applica tecniche statistiche, linguistiche e strutturali per estrarre e classificare informazioni da fonti testuali, una categoria di dati non-strutturati. L'integrazione di dati è un precursore dell'analisi dei dati, la quale è collegata alla visualizzazione di dati.
Analisi dei dati
0
statistica, quando si stima un parametro, la semplice individuazione di un singolo valore è spesso non sufficiente. È opportuno allora accompagnare la stima di un parametro con un intervallo di valori plausibili per quel parametro, che viene definito intervallo di confidenza (o intervallo di fiducia). Se formula_1 e formula_2 sono variabili casuali con distribuzioni di probabilità che dipendono da qualche parametro formula_3 e formula_4 (dove formula_5 è un numero tra 0 e 1), allora l'intervallo casuale formula_6 è un intervallo di confidenza al formula_7 per formula_8. I valori estremi dell'intervallo di confidenza si chiamano "limiti di confidenza". Ad esso si associa quindi un valore di probabilità cumulativa che caratterizza, indirettamente in termini di probabilità, la sua ampiezza rispetto ai valori massimi assumibili dalla variabile aleatoria misurando cioè la probabilità che l'evento casuale descritto dalla variabile aleatoria in oggetto cada all'interno di tale intervallo, graficamente pari all'area sottesa dalla curva di distribuzione di probabilità della variabile aleatoria nell'intervallo considerato. È bene non confondere l'intervallo di confidenza con la probabilità. Data l'espressione "vi è un livello di confidenza del 95% che formula_9 sia nell'intervallo", nulla si può dire sulla probabilità che l'intervallo ottenuto contenga formula_10 Si ipotizzi di voler calcolare l'età media degli abitanti di un luogo. Supponiamo che non si conosca l'età per ogni singolo abitante. Viene allora estratto un campione casuale di abitanti di cui è possibile sapere l'età, e dal campione si tenta di inferire ("predire") l'età media per tutta la popolazione residente e la variabilità di tale dato. Questo può essere fatto calcolando, ad esempio, l'età media delle persone presenti nel campione e ipotizzando che questo valore coincida con l'età media di tutta la popolazione inclusa quella non scelta nel campione. In questo caso si è fatta una "stima puntuale". Alternativamente, a partire dalle età delle persone nel campione, si può calcolare un intervallo di valori entro il quale si ritenga ci sia il valore della media di tutta la popolazione e, se la procedura è fatta in modo rigoroso e statisticamente corretto, è possibile stabilire un valore di "confidenza" di quanto sia "credibile" che l'intervallo ottenuto contenga effettivamente il valore cercato. In questo caso si è fatta una "stima per intervalli" e l'intervallo ottenuto è detto "intervallo di confidenza". Riassumendo: la stima puntuale fornisce un valore singolo che varia a seconda del campione, e difficilmente coincide con il valore vero della popolazione; la stima per intervalli fornisce un insieme di valori (intervallo) che con una certa "confidenza" contiene il valore vero della popolazione. Se formula_11 è una variabile aleatoria di media formula_9 e varianza formula_13 con formula_14 si indica la variabile campionaria corrispondente che ha media aritmetica degli formula_15 dati osservati nel campione e deviazione standard Il livello di confidenza è fissato dal ricercatore. Il valore scelto più di frequente è 95%. Tuttavia, meno di frequente, viene scelto anche un livello di confidenza del 90%, oppure del 99%. Se il valore di formula_18 non differisce molto dalla variabilità formula_19 della popolazione, può essere assunto come suo stimatore (ad esempio con un numero di soggetti osservati e replicazioni complessivamente maggiore di 60; in alternativa si ipotizza una distribuzione t di Student caratterizzata da una maggiore dispersione rispetto alla normale standard). In questa prima ipotesi, l'intervallo di confidenza per la media formula_9 ("vera media", della popolazione) al 99% (al livello formula_21), è dato da: Al 95% è dato da: Prima della diffusione dei computer si cercava di utilizzare l’approssimazione normale ogni qualvolta possibile. Adesso non è più strettamente necessario, e nella formula possono essere utilizzati percentili di altre distribuzioni, facendo rifierimento a campioni di dimensione più ridotta). Dalle formule risulta che i due intervalli di confidenza possono essere scritti in funzione dei "soli dati campionari" formula_24. Oltre a diminuire con il livello di confidenza, l'ampiezza dell'intervallo dipende dall'errore della stima formula_25 e diminuisce se: Qualora la popolazione non segua il modello gaussiano, se il campione è grande a sufficienza, la variabile campionaria tende a seguire comunque una legge normale (teorema centrale del limite). In altre parole, le due formule precedenti per l'intervallo di confidenza si possono usare anche nel caso in cui non è nota la sua legge di probabilità. Il livello di confidenza o copertura è il complemento a uno del livello di significatività formula_27: ad esempio, un intervallo di confidenza al formula_28 corrisponde a un livello di significatività di formula_29. Gli intervalli di confidenza sono spesso confusi con altri concetti della statistica, e talora oggetto di errate interpretazioni anche da parte di ricercatori professionisti. Alcuni errori comuni: Gli intervalli di confidenza furono introdotti da Jerzy Neyman in un articolo pubblicato nel 1937. C'è un metodo agevole per il calcolo degli intervalli di confidenza attraverso il test di verifica d'ipotesi (secondo l'impostazione di Neyman). Un intervallo di confidenza al 95% si può quindi ricavare da un test di verifica d'ipotesi di significatività 5%.
Intervallo di confidenza
In statistica, in particolare in statistica descrittiva, data una distribuzione di un carattere quantitativo oppure qualitativo ordinabile (ovvero le cui modalità possano essere ordinate in base a qualche criterio), si definisce la mediana (o valore mediano) come il valore/modalità (o l'insieme di valori/modalità) assunto dalle unità statistiche che si trovano nel mezzo della distribuzione. La mediana è un indice di posizione e rientra nell'insieme delle statistiche d'ordine. Il termine "mediano" venne introdotto da Antoine Augustin Cournot e adottato da Francis Galton. Gustav Theodor Fechner sviluppò l'uso della mediana come sostituto della media in quanto riteneva che il calcolo della media fosse troppo laborioso rispetto al vantaggio in termini di precisioni che offriva. Se si procede al riordinamento delle unità in base ai valori crescenti del carattere da esse detenuto, in sostanza la mediana bipartisce la distribuzione in due sotto-distribuzioni: la prima a sinistra della mediana (costituita dalla metà delle unità la cui modalità è minore o uguale alla mediana) e la seconda a destra della mediana (costituita dalla metà delle unità la cui modalità è maggiore o uguale alla mediana). Tecnicamente si afferma che la mediana è il valore/modalità per il quale la frequenza relativa cumulata vale (o supera) 0,5, cioè il secondo quartile, ossia il 50° percentile. Usualmente si indica la mediana con Me. Per calcolare la mediana di formula_1 dati: Se le modalità sono raggruppate in classi non si definisce un valore univoco, ma una classe mediana formula_7. La determinazione di tale classe avviene considerando le frequenze cumulate; indicando con formula_8 la generica frequenza cumulata relativa dell'osservazione i-esima sarà:formula_9 e formula_10. Pur essendo corretto considerare un qualsiasi elemento dell'intervallo formula_7 un valore mediano si è soliti procedere, al fine di avere una misura unica del valore, a un'approssimazione della mediana con la seguente formula: se si assume che la distribuzione dei dati all'interno della classe sia uniforme, che corrisponde ad un processo di interpolazione. Una proprietà della mediana è di rendere minima la somma dei valori assoluti degli scarti delle formula_13 da un generico valore Infatti, sia formula_15 la variabile aleatoria alla quale si riferiscono le osservazioni formula_13. Per la linearità del valore atteso e dell'operatore di derivazione si ha dove formula_18 è la funzione segno di formula_19. Per la definizione di valore atteso dove formula_21 indica la probabilità che formula_15 sia minore di formula_23 e formula_24 quella che formula_15 sia maggiore di formula_23. Per le proprietà di normalizzazione della probabilità, cioè formula_27, l'equazione diventa Quindi cioè formula_23 è la mediana. In un sondaggio fatto all'interno di una facoltà composta da 250 studenti (la popolazione statistica), si intende rilevare il carattere "Gradimento dei professori", secondo le cinque modalità "molto deluso", "insoddisfatto", "parzialmente soddisfatto", "soddisfatto", "entusiasta". Risulta che 10 studenti si dicono entusiasti dell'operato dei professori, 51 si dicono soddisfatti, 63 parzialmente soddisfatti, 90 insoddisfatti, 36 molto delusi. La distribuzione di frequenza viene rappresentata con una tabella come la seguente: Nel caso ipotizzato, la mediana è rappresentata dalla modalità "insoddisfatto". Questo significa che "almeno" la metà degli studenti non è soddisfatto dei professori.
Mediana (statistica)
0
In statistica, la moda (o norma) di una distribuzione di frequenza X è la modalità (o la classe di modalità) caratterizzata dalla massima frequenza e viene spesso rappresentata con la simbologia ν. In altre parole, è il valore che compare più frequentemente. Una distribuzione è "unimodale" se ammette un solo valore modale, è "bimodale" se ne ammette due (ossia: se esistono due valori che compaiono entrambi con la frequenza massima nella data distribuzione), "trimodale" se ne ha tre, ecc. La presenza di due (o più) mode all'interno di un collettivo potrebbe essere sintomo della non omogeneità del collettivo stesso: potrebbero cioè esistere al suo interno due (o più) sottogruppi omogenei al loro interno, ma distinti l'uno dall'altro per un'ulteriore caratteristica rispetto a quella osservata. Per la determinazione della classe modale è opportuno ricorrere all'istogramma, individuando "l'intervallo di altezza massima", ovvero il "punto di massimo della curva". La classe con la maggiore densità media (che corrisponde all'altezza dell'istogramma) è quella modale. Nel caso particolare della distribuzione normale, detta anche "gaussiana", la moda coincide con la media e la mediana. Indicando con formula_1 il numero di elementi che cadono nella classe formula_2, l'altezza formula_3 sarà data da: L'utilità della moda risiede nell'essere l'unico degli indici di tendenza centrale in grado di sintetizzare caratteri qualitativi su scala nominale.
Moda (statistica)
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri, appunto) dei valori esistenti. Sono indici di posizione: Un modo per rappresentare graficamente alcuni indici di posizione è il box-plot.
Indice di posizione
0
Le macchine a vettori di supporto (SVM, dall'inglese "Support-Vector Machines") sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la regressione e la classificazione. Dato un insieme di esempi per l'addestramento (training set), ognuno dei quali etichettato con la classe di appartenenza fra le due possibili classi, un algoritmo di addestramento per le SVM costruisce un modello che assegna i nuovi esempi ad una delle due classi, ottenendo quindi un classificatore lineare binario non probabilistico. Un modello SVM è una rappresentazione degli esempi come punti nello spazio, mappati in modo tale che gli esempi appartenenti alle due diverse categorie siano chiaramente separati da uno spazio il più possibile ampio. I nuovi esempi sono quindi mappati nello stesso spazio e la predizione della categoria alla quale appartengono viene fatta sulla base del lato nel quale ricade. Oltre alla classificazione lineare è possibile fare uso delle SVM per svolgere efficacemente la classificazione non-lineare utilizzando il metodo kernel, mappando implicitamente i loro input in uno spazio delle feature multi-dimensionale. Quando gli esempi non sono etichettati è impossibile addestrare in modo supervisionato e si rende necessario l'apprendimento non supervisionato, questo approccio cerca di identificare i naturali cluster in cui si raggruppano i dati, mappando successivamente i nuovi dati nei cluster ottenuti. L'algoritmo di clustering a vettori di supporto, creato da Hava Siegelmann e Vladimir N. Vapnik, applica le statistiche dei vettori di supporto, sviluppate negli algoritmi delle SVM, per classificare dati non etichettati, ed è uno degli algoritmi di clustering maggiormente utilizzato nelle applicazioni industriali. Le macchine a vettori di supporto possono essere pensate come una tecnica alternativa per l'apprendimento di classificatori polinomiali, contrapposta alle tecniche classiche di addestramento delle reti neurali artificiali. Le reti neurali ad un solo strato hanno un algoritmo di apprendimento efficiente, ma sono utili soltanto nel caso di dati linearmente separabili. Viceversa, le reti neurali multistrato possono rappresentare funzioni non lineari, ma sono difficili da addestrare a causa dell'alto numero di dimensioni dello spazio dei pesi e poiché le tecniche più diffuse, come la "back-propagation", permettono di ottenere i pesi della rete risolvendo un problema di ottimizzazione non convesso e non vincolato che, di conseguenza, presenta un numero indeterminato di minimi locali. La tecnica di addestramento SVM risolve entrambi i problemi: presenta un algoritmo efficiente ed è in grado di rappresentare funzioni non lineari complesse. I parametri caratteristici della rete sono ottenuti mediante la soluzione di un problema di programmazione quadratica convesso con vincoli di uguaglianza o di tipo box (in cui il valore del parametro deve essere mantenuto all'interno di un intervallo), che prevede un unico minimo globale. Formalmente, una macchina a vettori di supporto costruisce un iperpiano o un insieme di iperpiani in uno spazio a più dimensioni o a infinite dimensioni, il quale può essere usato per classificazione, regressione e altri scopi come il rilevamento delle anomalie. Intuitivamente una buona separazione si può ottenere dall'iperpiano che ha la distanza maggiore dal punto (del training set) più vicino di ognuna delle classi; in generale maggiore è il margine fra questi punti, minore è l'errore di generalizzazione commesso dal classificatore. Mentre il problema originale può essere definito in uno spazio di finite dimensioni, spesso succede che gli insiemi da distinguere non siano linearmente separabili in quello spazio. Per questo motivo è stato proposto che lo spazio originale di dimensioni finite venisse mappato in uno spazio con un numero di dimensioni maggiore, rendendo presumibilmente più facile trovare una separazione in questo nuovo spazio. Per mantenere il carico computazionale accettabile, i mapping utilizzati dalle SVM sono fatti in modo tale che i prodotti scalari dei vettori delle coppie di punti in input siano calcolati facilmente in termini delle variabili dello spazio originale, attraverso la loro definizione in termini di una funzione kernel formula_1scelta in base al problema da risolvere. Gli iperpiani in uno spazio multidimensionale sono definiti come l'insieme di punti il cui prodotto scalare con un vettore in quello spazio è costante, dove tale insieme di vettori è un insieme ortogonale (e quindi minimale) di vettori che definiscono un iperpiano. I vettori che definiscono gli iperpiani possono essere scelti come combinazioni lineari con parametri formula_2delle immagini dei vettori delle feature formula_3. Con tale scelta dell'iperpiano, i punti formula_4 nello spazio delle feature che sono mappati nell'iperpiano sono definiti dalla relazione formula_5. Si noti che se formula_1 diventa più piccolo al crescere di formula_7 rispetto ad formula_4, ogni termine della somma misura il grado di vicinanza del punto di test formula_4 al corrispondente punto di base formula_3. Si noti che l'insieme di punti formula_4 mappato in un qualsiasi iperpiano può produrre un risultato piuttosto complicato, permettendo discriminazioni molto più complesse fra insiemi non completamente convessi nello spazio originario. L'originale algoritmo SVM è stato inventato da Vladimir Vapnik e Aleksej Červonenkis nel 1963. Nel 1992 Bernhard Boser, Isabelle Guyon e lo stesso Vapnik suggerirono un modo per creare un classificatore non lineare applicando il metodo kernel all'iperpiano con il massimo margine. Lo standard corrente che propone l'utilizzo di un margine leggero fu invece proposto da Corinna Cortes e Vapnik nel 1993 e pubblicato nel 1995. Alcune applicazioni per cui le SVM sono state utilizzate con successo sono: I seguenti framework mettono a disposizione un'implementazione di SVM:
Macchine a vettori di supporto
La regressione formalizza e risolve il problema di una relazione funzionale tra variabili misurate sulla base di dati campionari estratti da un'ipotetica popolazione infinita. Originariamente Galton utilizzava il termine come sinonimo di correlazione, tuttavia oggi in statistica l'analisi della regressione è associata alla risoluzione del modello lineare. Per la loro versatilità, le tecniche della regressione lineare trovano impiego nel campo delle scienze applicate: chimica, geologia, biologia, fisica, ingegneria, medicina, nonché nelle scienze sociali: economia, linguistica, psicologia e sociologia. Più formalmente, in statistica la regressione lineare rappresenta un metodo di stima del valore atteso condizionato di una variabile "dipendente", o "endogena", formula_1, dati i valori di altre variabili "indipendenti", o "esogene", formula_2: formula_3. L'uso dei termini "endogeno"/"esogeno" è talvolta criticato, in quanto implicherebbe una nozione di causalità che l'esistenza di una regressione non prevede; in determinati contesti, provocherebbe inoltre confusione, essendo ad esempio il concetto di esogeneità in econometria formalmente definito tramite l'ipotesi di ortogonalità alla base delle proprietà statistiche della regressione lineare col metodo dei minimi quadrati. La prima, e ancora popolare, forma di regressione lineare è quella basata sul metodo dei minimi quadrati (si veda oltre). La prima pubblicazione contenente un'applicazione del metodo nota è datata 1805, a nome di Adrien-Marie Legendre; Carl Friedrich Gauss elabora indipendentemente lo stesso metodo, pubblicando le sue ricerche nel 1809. Sebbene Gauss sostenne di avere sviluppato il metodo sin dal 1795, la paternità delle sue applicazioni in campo statistico è normalmente attribuita a Legendre; lo stesso termine "minimi quadrati" deriva dall'espressione francese, utilizzata da Legendre, "moindres carrés". Sia Gauss che Legendre applicano il metodo al problema di determinare, sulla base di osservazioni astronomiche, le orbite di corpi celesti intorno al sole. Eulero aveva lavorato allo stesso problema, con scarso successo, nel 1748. Nel 1821 Gauss pubblica un ulteriore sviluppo del metodo dei minimi quadrati, proponendo una prima versione di quello che è oggi noto come teorema di Gauss-Markov. L'origine del termine "regressione" è storicamente documentata. L'espressione "reversione" era usata nel XIX secolo per descrivere un fenomeno biologico, in base al quale la progenie di individui eccezionali tende in media a presentare caratteristiche meno notevoli di quelle dei genitori, e più simili a quelle degli antenati più remoti. Francis Galton studiò tale fenomeno, applicandovi il termine, forse improprio, di regressione verso la media (o la "mediocrità"). Per Galton l'espressione "regressione" ha solo tale significato, confinato all'ambito biologico. Il suo lavoro (1877, 1885) fu in seguito esteso da Karl Pearson e George Udny Yule a un contesto statistico più generale (1897, 1903); i lavori di Pearson e Yule ipotizzano che la distribuzione congiunta delle variabili dipendenti e indipendenti abbia natura gaussiana. Tale ipotesi è in seguito indebolita da Ronald Fisher, in lavori del 1922 e 1925. Fisher in particolare ipotizza che la distribuzione "condizionata" della variabile dipendente sia gaussiana, il che non implica necessariamente che così sia per quella congiunta di variabili dipendenti e indipendenti. Sotto tale profilo, la formulazione di Fisher è più vicina a quella di Gauss del 1821. Il modello di regressione lineare è: dove: Possiede delle peculiari assunzioni OLS. Per ogni osservazione campionaria si dispone di una determinazione formula_1 e di formula_14 determinazioni non stocastiche formula_15. Si cerca quindi una relazione di tipo lineare tra la variabile formula_1 e le formula_14 variabili deterministiche. Una prima analisi può essere condotta considerando un modello semplice a due variabili (si suppone in pratica che formula_14 sia uguale a formula_19). Un tipico esempio è riscontrabile dall'esperienza economica considerando la relazione tra Consumi (formula_20) e Reddito (formula_1). Ricercando una relazione funzionale in cui i consumi siano "spiegati" dal reddito si può ricorrere alla relazione lineare: dove formula_24 rappresenta l'intercetta e formula_25 la pendenza della retta interpolatrice. Generalizzando il problema a due variabili formula_26 e formula_27, scriveremo: formula_29 è una generica funzione di formula_26 e comunemente si assume formula_31. Ponendo, senza perdita di generalità, tale condizione la formula diviene: Quindi la variabile dipendente formula_27 viene "spiegata" attraverso una relazione lineare della variabile indipendente formula_26 (cioè: formula_35) e da una quantità casuale formula_36. Il problema della regressione si traduce nella determinazione di formula_24 e formula_25 in modo da esprimere al ‘meglio' la relazione funzionale tra formula_27 e formula_26. Per avvalorare di un significato statistico la scelta dei coefficienti occorre realizzare alcune ipotesi sul modello lineare di regressione: Date queste ipotesi si calcolano i coefficienti formula_46 e formula_47 secondo il metodo dei minimi quadrati (in inglese "Ordinary Least Squares", o OLS, da cui il riferimento agli stimatori di seguito ottenuti come agli "stimatori OLS") proposto da Gauss; detta: le stime si ottengono risolvendo: Le soluzioni si ricavano uguagliando a zero le derivate parziali di formula_50 rispetto ad formula_24 e formula_25: Dove formula_55 denota il numero delle osservazioni; segue: da cui si ricavano le soluzioni: Essendo la varianza osservata data da: e la covarianza osservata da: dove formula_62 denotano le medie osservate, si possono scrivere i parametri nella forma: Si consideri il seguente problema teorico: date due variabili casuali formula_65 e formula_1, quale è il "migliore" stimatore per il valore atteso di formula_1, ossia quale stimatore presenta lo scarto quadratico medio (o MSE, dall'inglese "Mean Squared Error") minimo? Se si utilizza uno stimatore affine che sfrutta l'informazione relativa alla variabile casuale formula_68 allora formula_69, è possibile dimostrare che lo scarto quadratico medio formula_70 è minimizzato se: Tale osservazione fornisce una giustificazione di tipo probabilistico alle espressioni proposte sopra; si veda oltre per un'analisi formale, nel caso multivariato. Il metodo dei minimi quadrati è esaminato nel caso bivariato, deriva una retta che interpola uno scatter di punti minimizzando la somma dei quadrati delle distanze formula_72 dei punti stessi dalla retta; il grafico fornisce un'intuizione del procedimento. La scelta di minimizzare i "quadrati" degli formula_72 non è, ovviamente, arbitraria. Facendo ad esempio riferimento alla semplice somma degli formula_72, distanze positive (verso l'alto) e negative (verso il basso) si compenserebbero, rendendo in generale peggiore la qualità dell'interpolazione; se per contro si adottasse una funzione criterio uguale alla somma dei valori assoluti degli formula_72, non essendo la funzione valore assoluto derivabile su tutto l'asse reale non si potrebbe ricorrere all'elegante metodo di minimizzazione sopra illustrato. Si osservi inoltre che gli formula_72 rappresentano una distanza di un tipo alquanto particolare. In geometria la distanza di un punto da una retta è infatti data dalla lunghezza del segmento che unisce il punto alla retta, perpendicolare a quest'ultima; evidentemente non è questo il caso degli formula_72. La scelta operata trova giustificazione nelle proprietà statistiche delle stime, illustrate in seguito: la particolare forma degli stimatori dei minimi quadrati sopra ottenuti consente un più semplice trattamento delle loro proprietà statistiche. Due parole infine sul significato di regressione "lineare". Il nome di questa tecnica statistica "non" significa che nella funzione stimata la variabile dipendente formula_78 è una funzione lineare della(e) variabile(i) esplicativa(e) formula_79, ma dei "parametri" oggetto di stima (formula_24 e formula_25 sopra). La stima di una funzione del tipo: rientra nel raggio d'azione del modello lineare, dal momento che formula_78 è una funzione lineare dei parametri formula_84, formula_85, formula_86. Per ulteriori considerazioni al riguardo, si veda l'articolo Regressione nonlineare. Il metodo sopra illustrato può essere esteso al caso in cui più variabili contribuiscono a spiegare la variabile dipendente formula_1: dove: Possiede delle peculiari assunzioni OLS. Raggruppando le osservazioni delle variabili esplicative in una matrice formula_65 di dimensioni formula_107, che si ipotizza avere rango pieno e uguale a formula_108 (il termine costante, o intercetta, corrisponde ad avere una colonna di formula_19 nella formula_65), è possibile scrivere, in notazione matriciale: Nella formulazione più elementare, si assume che formula_112, ossia: formula_113 formula_114 (omoschedasticità), formula_115 (assenza di correlazione nei disturbi). Si ipotizza inoltre che: ossia che non vi sia correlazione tra i regressori e i disturbi casuali — quest'ipotesi riveste un'importanza cruciale, in quanto rende possibile considerare i regressori compresi nella matrice formula_65 come variabili "esogene" (da cui il nome con cui l'ipotesi è spesso indicata: ipotesi di "esogeneità"). Quest'ultima proprietà è tutt'altro che banale, in quanto soltanto laddove essa è valida è possibile garantire che il vettore di stime dei parametri del modello, formula_118, abbia per valore atteso il vero valore dei parametri formula_85 (godendo così della proprietà di correttezza; si veda oltre). Sotto tali ipotesi, è possibile ottenere le stime del vettore di parametri formula_85 tramite il metodo dei minimi quadrati risolvendo il problema di minimo: Le condizioni del primo ordine per un minimo definiscono il sistema (detto delle equazioni normali): da cui: Per le proprietà della forma quadratica minimizzanda, si è certi che la soluzione trovata corrisponde a un minimo, non solo locale ma globale. Il vettore di stime OLS formula_124 consente di ottenere i valori previsti ("teorici") per la variabile dipendente: Formalmente, l'espressione sopra corrisponde a una proiezione ortogonale del vettore delle osservazioni formula_27 sullo spazio generato dalle colonne della matrice formula_65; la figura a lato illustra questo risultato. Per chiarire questo punto, sia formula_128 la proiezione di formula_27 sullo spazio generato dalle colonne matrice formula_65: Ciò significa che esisterà un vettore di pesi formula_86 tale per cui è possibile ottenere formula_128 come formula_134, ossia come combinazione lineare delle colonne di formula_65. A sua volta formula_27 sarà uguale a formula_128 più una componente formula_138 ortogonale allo spazio generato da formula_65: Dunque formula_141; premoltiplicando per formula_142 si ha: formula_143; così che: ossia l'espressione per il vettore di stime OLS formula_118 derivata in precedenza. Questa intuizione geometrica è formalizzata nel teorema di Frisch-Waugh-Lovell. Gli stimatori formula_124 degli OLS godono di una serie di interessanti proprietà algebriche; tali proprietà dipendono dal metodo dei minimi quadrati adottato, e non dal particolare modello oggetto di stima. Si osservi che le prime tre proprietà valgono solo se la matrice dei regressori include il termine costante, ossia se include un vettore di soli formula_19. L'R², o coefficiente di determinazione, è una misura della bontà dell'adattamento (in inglese "fitting") della regressione lineare stimata ai dati osservati. Al fine di definire l'R², sia formula_167; questa matrice trasforma i vettori in scarti dalla propria media, così che, ad esempio, formula_168. Si osservi che la matrice formula_169 è simmetrica (formula_170) e idempotente (formula_171). Dunque la somma degli scarti al quadrato delle formula_153 da formula_173 è semplicemente: formula_174. L'R² è definito come: Spesso le quantità al numeratore e al denominatore sono chiamate, rispettivamente, ESS (formula_176, dall'inglese "Explained Sum of Squares") e TSS (formula_174, dall'inglese "Total Sum of Squares"). Osservando che, per semplice sostituzione: dove l'ultima uguaglianza segue dal fatto che la media dei residui è zero, si ha: così che l'R² sarà un numero compreso tra formula_180 e formula_19 (alcuni pacchetti statistici trasformano tale numero in una percentuale); in analogia con quanto sopra, spesso la quantità formula_182 è indicata con la sigla RSS (dall'inglese "Residual Sum of Squares"), o SSR ("Sum of Squared Residuals", grammaticalmente più preciso, ma forse meno usato). Euristicamente, l'R² misura la frazione della variabilità delle osservazioni formula_153 che siamo in grado di spiegare tramite il modello lineare. Due importanti "caveat" devono in ogni caso essere tenuti a mente: È evidente che, al crescere del numero di regressori formula_14, formula_190 in generale decresce, correggendo l'artificiale incremento dell'R². Si può inoltre dimostrare che formula_190 aumenta, aggiungendo un regressore, soltanto se il valore della statistica formula_192 associata al coefficiente di tale regressore (si veda oltre) è maggiore di formula_19, così che il valore dell'R² corretto è legato alla significatività delle variabili aggiuntive. È opportuno far emergere alcune credenze sbagliate riguardo l'R². Innanzitutto non può mai assumere valori negativi perché è il rapporto di due varianze; tuttavia i software statistici possono produrre un output di una regressione che presenta un R² negativo. Ciò è dovuto al fatto che in questi programmi l'R² si calcola come differenza tra varianza spiegata e quella dei residui. Tuttavia nel caso di mispecificazione del modello (si "dimenticano" variabili che il data generating process contiene, intercetta compresa), il valore atteso della stima dei residui è in genere diverso da zero, quindi la media dello stimatore di formula_1 è diverso dalla media di formula_1. Pertanto il calcolo del software risulta errato perché non tiene conto di ciò. Sotto le ipotesi sopra formulate, il valore atteso dello stimatore formula_124 è uguale al vettore di parametri formula_85; tale proprietà è detta correttezza; al fine di verificare la correttezza di formula_124, è sufficiente osservare che: La varianza (in effetti, matrice varianza-covarianza) di formula_200 si ottiene come: Il teorema di Gauss-Markov stabilisce che tale varianza è minima tra quelle degli stimatori di formula_85 ottenibili come combinazione lineare delle osservazioni formula_27; in questo senso formula_124 è uno stimatore efficiente (in effetti si tratta di uno stimatore "BLUE", dall'inglese "Best Linear Unbiased Estimator", il migliore stimatore corretto lineare). Poiché formula_205 e le combinazioni lineari di variabili casuali normali indipendenti sono ancora normali, se ne conclude che: Volendo stimare il parametro formula_207, un naturale candidato sarebbe la varianza campionaria: In effetti lo stimatore sopra sarebbe anche lo stimatore di massima verosimiglianza per formula_209. Semplici manipolazioni mostrano tuttavia che tale stimatore non gode della proprietà di correttezza; infatti: dove formula_212. Il valore atteso dell'espressione sopra è: dove formula_214 denota l'operatore traccia di una matrice. Lo stimatore corretto per il parametro formula_207 è dunque: Infatti: Si osservi inoltre che, poiché formula_112, formula_219 ha una distribuzione chi quadro con formula_220 gradi di libertà. Le tecniche del modello lineare sopra esposte possono trovare diverse applicazioni; con una qualche semplificazione, due sono i principali usi della regressione lineare: Confinando la nostra attenzione al secondo punto, nell'ambito della statistica classica (cioè non bayesiana) condurre un test statistico non può portare ad "accettare" un'ipotesi nulla, ma al più a "non rifiutarla", un po' come dire che lo statistico assolve per mancanza di prove. Un primo ordine di test concerne i singoli coefficienti del modello; volere stabilire se la j-esima variabile delle formula_65 abbia o meno potere esplicativo nei confronti della formula_27 equivale a sottoporre a verifica l'ipotesi nulla che il corrispondente coefficiente formula_223 sia nullo. A tal fine si ricorre alla statistica test: dove formula_225, che sotto l'ipotesi nulla formula_226 ha distribuzione t di Student. Un caso più complesso, e di maggiore interesse, riguarda il test di un insieme di restrizioni lineari sui coefficienti del modello; si consideri al riguardo ad un'ipotesi nulla nella forma: dove formula_228 è una matrice di rango formula_229. Ad esempio, volendo testare l'ipotesi che il primo e il terzo coefficiente siano uguali, sarà sufficiente ricorrere la matrice (in questo particolare caso, vettore) formula_230, con formula_231, così che l'ipotesi nulla risulti: formula_232. Al fine di sottoporre a verifica ipotesi di questo tipo, è sufficiente considerare che, essendo la combinazione lineare di variabili casuali normali ancora normale: sotto l'ipotesi nulla formula_227. Ne consegue che: per la nota proprietà per cui la combinazione lineare dei quadrati variabili casuali normali standardizzate ha distribuzione chi quadro, con gradi di libertà pari al rango della matrice formula_236, formula_229 (si osservi che in generale formula_238, e che formula_229 sarà solitamente pari al numero di restrizioni imposte sui parametri del modello). Naturalmente in generale il parametro formula_207 è incognito, per cui l'espressione sopra non può essere usata direttamente per fare inferenza statistica. Si ricorda tuttavia che: Essendo noto che il rapporto tra due variabili casuali aventi distribuzione chi quadro, divise per i rispettivi gradi di libertà, è distribuito come una F di Fisher, è possibile utilizzare la statistica test: avente sotto l'ipotesi nulla distribuzione F di Fisher con formula_229 e formula_220 gradi di libertà. Se due o più colonne della matrice dei regressori formula_65 sono linearmente dipendenti, non esiste l'inversa formula_246 per cui il vettore di stime OLS non può essere determinato. Se da un lato è assai improbabile che questa eventualità si verifichi nelle applicazioni pratiche, è comunque possibile che alcune colonne della matrice formula_68 siano prossime alla dipendenza lineare; in tal caso sarà ancora possibile ottenere un vettore di stime OLS, ma sorgerà il problema della multicollinearità. Si parla di multicollinearità allorché una o più colonne della matrice dei regressori formula_65 sono prossime a essere linearmente dipendenti. L'effetto della multicollinearità è che la matrice formula_249 è prossima all'essere singolare. Questo ha due conseguenze di particolare rilievo nelle applicazioni: Il primo punto implica che gli intervalli di confidenza per i valori dei coefficienti saranno relativamente ampi; se tali intervalli includono lo zero, non si può rifiutare l'ipotesi nulla che la variabile corrispondente non abbia alcun effetto sulla variabile dipendente. Un indicatore di multicollinearità spesso utilizzato nella pratica è il "variance inflation factor" (fattore di inflazione della varianza), o VIF. Il VIF è calcolato per ciascuna variabile del modello (spesso automaticamente da diversi software statistici), in base all'espressione: dove formula_251 è il coefficiente R² di una regressione della colonna formula_5-esima di formula_65 su tutti gli altri regressori (incluso il termine costante, se è presente). È possibile dimostrare che la varianza dell'elemento formula_5-esimo del vettore delle stime OLS formula_124 è proporzionale al VIF; dunque un VIF elevato comporterà una minore significatività del coefficiente formula_256, andando a ridurre il valore della statistica formula_192 di Student associata. Un formula_251 elevato è indice di dipendenza lineare tra la colonna formula_5-esima e le restanti colonne della matrice formula_65, ossia è un indice di multicollinearità. Non esiste, tuttavia, un particolare valore soglia del VIF che determina inequivocabilmente la multicollinearità; sta alla sensibilità del ricercatore valutare, con l'ausilio dell'indicazione del VIF, se sussista o meno multicollinearità, nel qual caso è opportuno rimuovere il regressore formula_5-esimo (colonna formula_5-esima della matrice formula_65 sulla quale si è riscontrata multicollinearità). Le stime e le statistiche test presentate sopra costituiscono l'obiettivo del ricercatore che effettua un'analisi di regressione lineare. Sebbene le convenzioni nella presentazione dei risultati varino significativamente a seconda dell'ambito scientifico o del tipo di pubblicazione, alcuni standard sono in generale rispettati. I risultati della stima di un modello di regressione lineare potrebbero e dovrebbero riportare: Particolare attenzione si deve porre nel ritenere che un modello: implichi che le variabili ricomprese nella matrice formula_65 "causino" la formula_27. È importante osservare che l'esistenza di regressione (formalmente definita nei paragrafi precedenti) "non implica altro che l'esistenza di un valore atteso condizionato": In particolare, non si può in generale affermare che l'espressione sopra significhi che le variabili in formula_65 "causino" il comportamento della formula_27. Come espresso con efficacia da Cochrane (2003), "le regressioni non hanno cause al secondo membro e conseguenze al primo membro." Tuttavia resta vero che uno dei principali task dell'analisi di regressione verte proprio sulle indagini di tipo causale; peraltro in contesti sperimentali "controllati" questa possibilità è tipicamente accettata. Inoltre anche in contesti osservazionali l'interpretazione causale, anche se molto più delicata, non si esclude assolutamente, anzi in certi contesti resta il task più importante. Particolare rilievo in questo contesto è giocato dal problema delle "variabili omesse", se siamo portati a ritenere che tale problema non sia rilevante, allora l'interpretazione causale è lecita. I concetti di validità esterna ed interna forniscono uno schema di riferimento per valutare se uno studio statistico o econometrico sia utile per rispondere ad una domanda specifica di interesse. L'analisi è esternamente valida se le sue inferenze e conclusioni possono essere generalizzate dalla popolazione e dal contesto studiati ad altre popolazioni e contesti. Deve essere giudicata usando la conoscenza specifica della popolazione e del contesto usato e di quelli oggetto d'interesse. Un'ipotesi cruciale del modello classico di regressione lineare è che i regressori siano ortogonali al disturbo stocastico, ossia, formalmente: Il motivo per cui tale ipotesi — anche nota come "ipotesi di esogeneità" — è fondamentale è presto illustrato; basta osservare che: così che: In altri termini: l'ipotesi di esogeneità dei regressori è condizione necessaria per la correttezza dello stimatore formula_118 del metodo dei minimi quadrati (un'analoga argomentazione può essere data in termini asintotici, passando dalla correttezza alla consistenza dello stimatore). In tutti i casi in cui si ha motivo di credere che l'ipotesi di esogeneità sia violata — tutti i casi in cui si sospetta "endogeneità" dei regressori — non si può fare affidamento sui risultati di una regressione condotta col metodo dei minimi quadrati ordinari (la soluzione è di ricorrere a una regressione con variabili strumentali). È la differenza tra la popolazione studiata e la popolazione d'interesse. Un esempio è quello di effettuare lo stesso test sui topi e sugli uomini senza chiedersi se vi siano delle differenze che inficino l'analisi. Anche se la popolazione studiata e quella d'interesse fossero uguali, sarebbe opportuno valutarne il contesto. Un esempio è uno studio su una campagna di alcolici su degli studenti universitari e su degli studenti delle classi primarie. Un'analisi statistica è internamente valida se le inferenze statistiche sugli effetti causali sono validi per la popolazione oggetto di studio. La distorsione da variabile omessa nasce quando viene omessa una variabile dalla regressione, che è una determinante di formula_1 ed è correlata con uno o più dei regressori. L'omissione di variabili rilevanti (nel senso precisato in quanto segue) può rendere le stime OLS inconsistenti. Si supponga che il modello "vero" sia: ma si stimi un modello: che omette la variabile "rilevante" formula_282 che contribuisce a spiegare la variabile dipendente formula_27. Si ha allora: Poiché formula_285, nel secondo modello il regressore formula_286 è correlato col disturbo formula_287. Per la precisione: Risulta così violata una delle ipotesi del modello classico di regressione lineare, e le stime del parametro formula_289 col metodo dei minimi quadrati ordinari sono inconsistenti. Si osservi che, qualora la variabile rilevante formula_282 sia ortogonale a formula_286 (e, di conseguenza, formula_292), il problema scompare (il teorema di Frisch-Waugh-Lovell precisa ed estende quest'ultima considerazione). Questo errore sorge quando la funzione di regressione che descrive i dati non è corretta. Ad esempio una funzione di regressione di una popolazione non lineare è descritta come lineare. Tipicamente è un errore di misura o confusione, che va a distorcere l'intero data set. La distorsione di causalità simultanea si verifica in una regressione di Y su X quando, in aggiunta al legame causale d'interesse da formula_65 a formula_1, c'è un legame causale da formula_1 a formula_65. Questa causalità inversa rende formula_65 correlato con l'errore statistico nella regressione d'interesse. Si verifica quando il processo di selezione è legato al valore della variabile dipendente; ciò può introdurre la correlazione tra l'errore statistico ed il regressore, portando così ad una distorsione dello stimatore OLS. Si supponga di non poter osservare direttamente un regressore, che deve essere stimato (o "generato", secondo una diversa terminologia); per concretezza, si consideri un "vero" modello: e si ipotizzi di disporre soltanto di una stima di formula_300: Se si procede nella stima di: Si ottiene: con: Supponendo che formula_307, la stima del parametro formula_85 risulta più vicina a zero di quanto non sia il "vero" valore del parametro (questo effetto è noto con termine inglese come "attenuation bias"). È immediato osservare che il problema è meno pronunciato laddove la varianza dell'errore nell'osservazione di formula_300, formula_310 risulta minore della varianza di formula_300 stesso — ossia, non sorprendentemente, quando formula_300 può essere stimato con relativa precisione. Si osservi infine che nessun problema si pone nel caso in cui la variabile dipendente — formula_27 — sia stimata o generata. In tal caso, il termine di errore in essa contenuto sarà semplicemente incorporato nel disturbo della regressione — formula_314, senza ledere la consistenza delle stime OLS. Le proprietà sopra esposte possono essere generalizzate al caso in cui le ipotesi sulla distribuzione dei termini di errore non siano necessariamente valide per campioni di dimensione finita. In questo caso, si ricorre alle proprietà "asintotiche" delle stime, supponendo implicitamente che, per campioni di dimensione sufficientemente grande, la distribuzione asintotica delle stime coincida, o approssimi ragionevolmente, quella effettiva. I risultati si fondano sul teorema del limite centrale, o su sue generalizzazioni. Al fine di illustrare le proprietà asintotiche degli stimatori dei minimi quadrati ordinari, si ipotizzi: dove formula_318 denota la convergenza in probabilità e formula_319 la matrice identità. L'espressione per lo stimatore dei minimi quadrati ordinari può essere riscritta come: Passando al limite per formula_321, si ha allora: (si osservi che il limite in probabilità dell'inversa di formula_323 è l'inversa di formula_324). Dunque, lo stimatore formula_118 converge in probabilità al vero valore del vettore di parametri formula_85 – si dice dunque che formula_118 gode della proprietà di consistenza. Applicando una banale estensione del teorema del limite centrale al caso multivariato, si ha inoltre: dove formula_329 denota la convergenza in distribuzione. Da quest'ultimo risultato discende allora che: In altre parole, lo stimatore dei minimi quadrati ordinari è non solo consistente, ma anche asintoticamente normalmente distribuito; l'insieme di queste proprietà si indica con la sigla inglese CAN ("Consistent and Asymptotically Normal"). I metodi sopra esposti costituiscono il nucleo del modello classico di regressione lineare; quantunque validi strumenti di analisi per un ampio spettro di discipline e casi di studio, essi prestano il fianco a una serie di critiche, incentrate sulla semplicità delle ipotesi alla base del modello. Tali critiche hanno portato alla formulazione di modelli più generali, caratterizzati da ipotesi meno restrittive rispetto a quelle poste sopra. L'analisi ha battuto alcune vie principali: Ciò ha consentito lo sviluppo di modelli alternativi, o quantomeno complementari, al modello classico; tra i più noti, il metodo dei minimi quadrati generalizzati, metodi di stima tramite variabili strumentali, i vari modelli di regressione robusta, nonché numerosi modelli sviluppati nell'ambito dell'analisi delle serie storiche e dei dati panel. Nell'ambito dell'econometria (manuali, si veda anche l'articolo econometria): Nell'ambito della finanza: Nell'ambito della fisica: Nell'ambito della Ricerca sociale: Nell'ambito della linguistica, in particolare della psicolinguistica:
Regressione lineare
0
Le macchine a vettori di supporto (SVM, dall'inglese "Support-Vector Machines") sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la regressione e la classificazione. Dato un insieme di esempi per l'addestramento (training set), ognuno dei quali etichettato con la classe di appartenenza fra le due possibili classi, un algoritmo di addestramento per le SVM costruisce un modello che assegna i nuovi esempi ad una delle due classi, ottenendo quindi un classificatore lineare binario non probabilistico. Un modello SVM è una rappresentazione degli esempi come punti nello spazio, mappati in modo tale che gli esempi appartenenti alle due diverse categorie siano chiaramente separati da uno spazio il più possibile ampio. I nuovi esempi sono quindi mappati nello stesso spazio e la predizione della categoria alla quale appartengono viene fatta sulla base del lato nel quale ricade. Oltre alla classificazione lineare è possibile fare uso delle SVM per svolgere efficacemente la classificazione non-lineare utilizzando il metodo kernel, mappando implicitamente i loro input in uno spazio delle feature multi-dimensionale. Quando gli esempi non sono etichettati è impossibile addestrare in modo supervisionato e si rende necessario l'apprendimento non supervisionato, questo approccio cerca di identificare i naturali cluster in cui si raggruppano i dati, mappando successivamente i nuovi dati nei cluster ottenuti. L'algoritmo di clustering a vettori di supporto, creato da Hava Siegelmann e Vladimir N. Vapnik, applica le statistiche dei vettori di supporto, sviluppate negli algoritmi delle SVM, per classificare dati non etichettati, ed è uno degli algoritmi di clustering maggiormente utilizzato nelle applicazioni industriali. Le macchine a vettori di supporto possono essere pensate come una tecnica alternativa per l'apprendimento di classificatori polinomiali, contrapposta alle tecniche classiche di addestramento delle reti neurali artificiali. Le reti neurali ad un solo strato hanno un algoritmo di apprendimento efficiente, ma sono utili soltanto nel caso di dati linearmente separabili. Viceversa, le reti neurali multistrato possono rappresentare funzioni non lineari, ma sono difficili da addestrare a causa dell'alto numero di dimensioni dello spazio dei pesi e poiché le tecniche più diffuse, come la "back-propagation", permettono di ottenere i pesi della rete risolvendo un problema di ottimizzazione non convesso e non vincolato che, di conseguenza, presenta un numero indeterminato di minimi locali. La tecnica di addestramento SVM risolve entrambi i problemi: presenta un algoritmo efficiente ed è in grado di rappresentare funzioni non lineari complesse. I parametri caratteristici della rete sono ottenuti mediante la soluzione di un problema di programmazione quadratica convesso con vincoli di uguaglianza o di tipo box (in cui il valore del parametro deve essere mantenuto all'interno di un intervallo), che prevede un unico minimo globale. Formalmente, una macchina a vettori di supporto costruisce un iperpiano o un insieme di iperpiani in uno spazio a più dimensioni o a infinite dimensioni, il quale può essere usato per classificazione, regressione e altri scopi come il rilevamento delle anomalie. Intuitivamente una buona separazione si può ottenere dall'iperpiano che ha la distanza maggiore dal punto (del training set) più vicino di ognuna delle classi; in generale maggiore è il margine fra questi punti, minore è l'errore di generalizzazione commesso dal classificatore. Mentre il problema originale può essere definito in uno spazio di finite dimensioni, spesso succede che gli insiemi da distinguere non siano linearmente separabili in quello spazio. Per questo motivo è stato proposto che lo spazio originale di dimensioni finite venisse mappato in uno spazio con un numero di dimensioni maggiore, rendendo presumibilmente più facile trovare una separazione in questo nuovo spazio. Per mantenere il carico computazionale accettabile, i mapping utilizzati dalle SVM sono fatti in modo tale che i prodotti scalari dei vettori delle coppie di punti in input siano calcolati facilmente in termini delle variabili dello spazio originale, attraverso la loro definizione in termini di una funzione kernel formula_1scelta in base al problema da risolvere. Gli iperpiani in uno spazio multidimensionale sono definiti come l'insieme di punti il cui prodotto scalare con un vettore in quello spazio è costante, dove tale insieme di vettori è un insieme ortogonale (e quindi minimale) di vettori che definiscono un iperpiano. I vettori che definiscono gli iperpiani possono essere scelti come combinazioni lineari con parametri formula_2delle immagini dei vettori delle feature formula_3. Con tale scelta dell'iperpiano, i punti formula_4 nello spazio delle feature che sono mappati nell'iperpiano sono definiti dalla relazione formula_5. Si noti che se formula_1 diventa più piccolo al crescere di formula_7 rispetto ad formula_4, ogni termine della somma misura il grado di vicinanza del punto di test formula_4 al corrispondente punto di base formula_3. Si noti che l'insieme di punti formula_4 mappato in un qualsiasi iperpiano può produrre un risultato piuttosto complicato, permettendo discriminazioni molto più complesse fra insiemi non completamente convessi nello spazio originario. L'originale algoritmo SVM è stato inventato da Vladimir Vapnik e Aleksej Červonenkis nel 1963. Nel 1992 Bernhard Boser, Isabelle Guyon e lo stesso Vapnik suggerirono un modo per creare un classificatore non lineare applicando il metodo kernel all'iperpiano con il massimo margine. Lo standard corrente che propone l'utilizzo di un margine leggero fu invece proposto da Corinna Cortes e Vapnik nel 1993 e pubblicato nel 1995. Alcune applicazioni per cui le SVM sono state utilizzate con successo sono: I seguenti framework mettono a disposizione un'implementazione di SVM:
Macchine a vettori di supporto
In probabilità, date due variabili aleatorie "X" e "Y", definite sullo stesso spazio di probabilità, si definisce la loro distribuzione congiunta come la distribuzione di probabilità associata al vettore formula_1. Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso di più variabili si parla di distribuzione multivariata. La funzione di ripartizione di una distribuzione congiunta è definita come o più generalmente Nel caso di variabili aleatorie discrete, la densità discreta congiunta (o funzione di massa di probabilità congiunta) è data da Siccome la densità congiunta è anch'essa una densità, è soddisfatta la seguente equazione: Nel caso di variabili aleatorie continue, la densità congiunta è data da dove "f"("y"|"x") e "f"("x"|"y") sono le distribuzioni condizionate di Y dato X=x e di X dato Y=y, mentre "f"("x") e "f"("y") sono le distribuzioni marginali della densità congiunta, rispettivamente per X e Y. Anche in questo caso, è soddisfatto
Distribuzione congiunta
1
è un algoritmo di clustering partizionale correlato all'algoritmo K-means. Prevede in input un insieme di n oggetti e un numero k che determina quanti cluster si vogliono in output. Entrambi gli algoritmi sono partizionali (suddividendo il dataset in gruppi) ed entrambi cercano di minimizzare l'errore quadratico medio, la distanza tra punti di un cluster e il punto designato per esserne il centro. In K-means il punto è "artificiale" — è la pura media di tutti i punti nel cluster. Nel K-medoids è usato il punto collocato più centralmente, in questo modo il centro è uno dei datapoint attuali. K-medoids è più robusto al rumore e agli outlier rispetto al k-means. Un medoid può essere definito come un oggetto di un cluster la cui dissimilarità media rispetto a tutti gli oggetti nel cluster è minima, in questo modo esso sarà il punto più centrale di un dato dataset. L'algoritmo di clustering è il seguente: Si deve clusterizzare il seguente data set di 10 oggetti in 2 cluster, quindi n è 10 e k è 2: Si inizializzano i k centri. Assumiamo che C1=(3,4) e C2=(7,4) siano i nostri medoid iniziali. Calcoliamo la distanza così da associare ogni data object al suo medoid più vicino. Iniziamo quindi il clustering: Essendo (3,4) (2,6) (3,8) e (4,7) punti vicini a c1 essi formeranno un cluster mentre i punti rimanenti ne formeranno un altro. Il costo totale sarà 20. Il costo tra 2 punti qualsiasi è trovato usando la formula formula_1 Il costo totale è la somma dei costi per gli oggetti dal proprio medoid. Costo totale= {cost((3,4),(2,6)) + cost((3,4),(3,8)) + cost((3,4),(4,7))} + {cost((7,4),(6,2)) + cost((7,4),(6,4)) + cost((7,4),(7,3)) + cost((7,4),(8,5)) + cost((7,4),(7,6))} = 3 + 4 + 4 + 3 + 1 + 1 + 2 + 2 = 20 Selezione di un nonmedoid O' in modo casuale. Assumiamo O'=(7,3) I medoid sono quindi c1(3,4) e O'(7,3). Se c1 e O' sono nuovi medoid, si calcola il costo totale usando la formula al passo 1. Costo totale = 3 + 4 + 4 + 2 + 2 + 1 + 3 + 3 = 22 Così il costo per cambiare il medoid da c2 a O' sarà: S = Costo totale attuale – Costo totale precedente = 22 - 20 = 2 > 0 Quindi cambiare medoid in O' non è una buona idea, la scelta precedente è stata buona e l'algoritmo termina in questo punto (in quanto non ci sono cambiamenti per i medoid). Può accadere che qualche data point possa migrare da un cluster ad un altro, ciò dipende dalla vicinanza rispetto al nuovo medoid scelto.
K-medoids
In matematica, la distanza di Minkowski è una distanza in uno spazio euclideo che può essere considerata una generalizzazione sia della distanza euclidea sia della distanza di Manhattan. La distanza di Minkowski di ordine formula_1 tra due punti formula_2 e formula_3 in formula_4 è definita come: Questa distanza si usa tipicamente con formula_6 o formula_7: il primo la distanza di Manhattan e il secondo rappresenta la distanza euclidea. Per formula_8 la distanza di Minkowski è una "metrica", nel senso che soddisfa la disuguaglianza triangolare come conseguenza della disuguaglianza di Minkowski. Quando formula_9, la distanza tra formula_10 e formula_11 è formula_12, ma il punto formula_13 è a distanza 1 da entrambi. Nel caso limite in cui formula_1 tende a infinito si ha la distanza di Čebyšëv: Per formula_1 che tende a formula_17, in modo simile si ha:
Distanza di Minkowski
0
In statistica, in particolare in statistica descrittiva, data una distribuzione di un carattere quantitativo oppure qualitativo ordinabile (ovvero le cui modalità possano essere ordinate in base a qualche criterio), i quartili sono quei valori/modalità che ripartiscono la popolazione in quattro parti di uguale numerosità. I quartili sono indici di posizione e rientrano nell'insieme delle statistiche d'ordine. La differenza tra il terzo ed il primo quartile è un indice di dispersione ed è detto scarto interquartile; i quartili vengono inoltre utilizzati per rappresentare un Box-plot. Il quartile zero, il primo, il secondo, il terzo e il quarto quartile corrispondono con le prime modalità la cui frequenza cumulata percentuale è almeno 0, 25, 50, 75 e 100 rispettivamente. Cioè, ad esempio, il primo quartile corrisponde con la modalità "i"-esima se la frequenza cumulata percentuale formula_1 e formula_2. Il primo, il secondo e il terzo quartile in una distribuzione ordinata sono "vicini" ai valori di posizione "[n/4]", "[n/2]" e "[3n/4]". Il secondo quartile coincide con la mediana, e divide la popolazione in due parti di uguale numerosità, delle quali il primo ed il terzo quartile sono le mediane. Il quartile zero coincide con il valore minimo della distribuzione. Il quarto quartile coincide con il valore massimo della distribuzione. I quartili equivalgono ai quantili "q" (quartile zero), "q" (primo quartile), "q=q" (secondo quartile), "q" (terzo quartile) e "q" (quarto quartile). In un sondaggio fatto all'interno di una facoltà composta da 250 studenti (la popolazione statistica), si intende rilevare il carattere "Gradimento dei professori", secondo le cinque modalità "molto deluso", "insoddisfatto", "parzialmente soddisfatto", "soddisfatto", "entusiasta". Risulta che 10 studenti si dicono entusiasti dell'operato dei professori, 51 si dicono soddisfatti, 63 mediamente soddisfatti, 90 insoddisfatti, 36 molto delusi. La distribuzione di frequenza viene rappresentata con una tabella come la seguente: Nel caso ipotizzato, il primo quartile e la mediana sono rappresentati dalla modalità "insoddisfatto", mentre il terzo quartile è rappresentato dalla modalità "parzialmente soddisfatto". Questo significa che "almeno" la metà degli studenti non è soddisfatto dei professori e "almeno" tre quarti degli studenti non è pienamente soddisfatto.
Quartile
In statistica lo scarto interquartile (o differenza interquartile o ampiezza interquartile, in inglese "interquartile range" o "IQR") è la differenza tra il terzo e il primo quartile, ovvero l'ampiezza della fascia di valori che contiene la metà "centrale" dei valori osservati. Lo scarto interquartile è un indice di dispersione, cioè una misura di quanto i valori si allontanino da un valore centrale. Viene utilizzato nel disegno del diagramma box-plot. Lo scarto interquartile di una variabile aleatoria si ottiene tramite la funzione di ripartizione, come differenza formula_1 Per una variabile casuale normale formula_2 lo scarto interquartile è circa formula_3. Per una variabile casuale di Cauchy formula_4 lo scarto interquartile è formula_5.
Scarto interquartile
0
è un algoritmo di clustering partizionale correlato all'algoritmo K-means. Prevede in input un insieme di n oggetti e un numero k che determina quanti cluster si vogliono in output. Entrambi gli algoritmi sono partizionali (suddividendo il dataset in gruppi) ed entrambi cercano di minimizzare l'errore quadratico medio, la distanza tra punti di un cluster e il punto designato per esserne il centro. In K-means il punto è "artificiale" — è la pura media di tutti i punti nel cluster. Nel K-medoids è usato il punto collocato più centralmente, in questo modo il centro è uno dei datapoint attuali. K-medoids è più robusto al rumore e agli outlier rispetto al k-means. Un medoid può essere definito come un oggetto di un cluster la cui dissimilarità media rispetto a tutti gli oggetti nel cluster è minima, in questo modo esso sarà il punto più centrale di un dato dataset. L'algoritmo di clustering è il seguente: Si deve clusterizzare il seguente data set di 10 oggetti in 2 cluster, quindi n è 10 e k è 2: Si inizializzano i k centri. Assumiamo che C1=(3,4) e C2=(7,4) siano i nostri medoid iniziali. Calcoliamo la distanza così da associare ogni data object al suo medoid più vicino. Iniziamo quindi il clustering: Essendo (3,4) (2,6) (3,8) e (4,7) punti vicini a c1 essi formeranno un cluster mentre i punti rimanenti ne formeranno un altro. Il costo totale sarà 20. Il costo tra 2 punti qualsiasi è trovato usando la formula formula_1 Il costo totale è la somma dei costi per gli oggetti dal proprio medoid. Costo totale= {cost((3,4),(2,6)) + cost((3,4),(3,8)) + cost((3,4),(4,7))} + {cost((7,4),(6,2)) + cost((7,4),(6,4)) + cost((7,4),(7,3)) + cost((7,4),(8,5)) + cost((7,4),(7,6))} = 3 + 4 + 4 + 3 + 1 + 1 + 2 + 2 = 20 Selezione di un nonmedoid O' in modo casuale. Assumiamo O'=(7,3) I medoid sono quindi c1(3,4) e O'(7,3). Se c1 e O' sono nuovi medoid, si calcola il costo totale usando la formula al passo 1. Costo totale = 3 + 4 + 4 + 2 + 2 + 1 + 3 + 3 = 22 Così il costo per cambiare il medoid da c2 a O' sarà: S = Costo totale attuale – Costo totale precedente = 22 - 20 = 2 > 0 Quindi cambiare medoid in O' non è una buona idea, la scelta precedente è stata buona e l'algoritmo termina in questo punto (in quanto non ci sono cambiamenti per i medoid). Può accadere che qualche data point possa migrare da un cluster ad un altro, ciò dipende dalla vicinanza rispetto al nuovo medoid scelto.
K-medoids
è un termine utilizzato in statistica per definire, in un insieme di osservazioni, un valore anomalo e aberrante. Un valore quindi chiaramente distante dalle altre osservazioni disponibili. In statistica viene definito outlier un valore al di fuori dall'intervallo: Dove formula_2 e formula_3 sono rispettivamente primo e terzo quartile. formula_4 è una costante che regola l'ampiezza dell'intervallo. Normalmente assume il valore unitario. Gli outlier sono valori numericamente distanti dal resto dei dati raccolti (ad esempio, in un campionamento). Le statistiche che derivano da campioni contenenti outlier possono essere fuorvianti. Per esempio, se misurassimo la temperatura di dieci oggetti presenti in una stanza, la maggior parte dei quali risultasse avere una temperatura compresa fra 20 e 25 gradi Celsius, allora il forno acceso, avente una temperatura di 350 gradi, sarebbe un dato aberrante. La mediana dei valori sarebbe circa 23, mentre la temperatura media salirebbe a circa 55 gradi: un indice chiaramente non rappresentativo della maggioranza dei valori di temperatura riscontrati nella stanza. In questo caso, la mediana rifletterebbe meglio della media aritmetica le misure della temperatura degli oggetti. Gli outliers possono essere indicativi del fatto che, in un dato campione, alcuni dati appartengono ad una popolazione differente rispetto a quella del resto del campione. Nella maggioranza dei grandi campioni, alcuni dati saranno più lontani dalla media del campione di quanto sarebbe logico aspettarsi. Ciò può essere dovuto ad un errore sistematico che si è verificato nella raccolta dei dati, oppure a una fallacia nella teoria che ha orientato l'assunzione di una data distribuzione campionaria di probabilità, ma potrebbe anche essere semplicemente dovuto al caso, che ha fatto sì che nella raccolta dei dati alcune osservazioni abbiano prodotto dati molto lontani dai valori medi del campione. Inoltre, gli outliers potrebbero essere indicativi di dati errati, procedure erronee o aree sperimentali in cui alcune teorie potrebbero non essere valide. Tuttavia, un piccolo numero di dati aberranti non dovuti a condizioni anomale è dato per scontato nei grandi campioni. Stimatori poco influenzati dai dati aberranti sono detti robusti.
Outlier
0
Il test di verifica d'ipotesi si utilizza per verificare la bontà di un'ipotesi. Per ipotesi è da intendersi un'affermazione che ha come oggetto accadimenti nel mondo reale, che si presta ad essere confermata o smentita dai dati osservati sperimentalmente. Il metodo con cui si valuta l'attendibilità di un'ipotesi è il metodo sperimentale. Quest'ultimo consiste nel determinare le conseguenze di un'ipotesi in termini di eventi osservabili, e di valutare se la realtà effettivamente osservata si accorda o meno con l'ipotesi su di essa fatta. A tal riguardo si distinguono due ambiti in cui tale attività si esplica: Nell'ambito statistico, a seconda delle ipotesi si distingue tra: Nel primo caso, si tende a pervenire a delle conclusioni più sicure possibili. Ad esempio volendo provare se in un circuito elettrico passa corrente si inserirà una lampadina o un amperometro e si constaterà l'accensione o l'attivazione dello strumento. In tal caso si perviene con maggior sicurezza alla conclusione. Se la lampadina si accende allora passa corrente; in caso contrario il circuito non è predisposto correttamente. In questo ambito, se nel circuito passa corrente la maggior parte delle volte che si inserisce una lampadina questa si accende. In caso contrario il ripetuto inserimento della lampadina darà sempre esito negativo. Nel secondo caso la situazione è modificata in quanto interviene un elemento nuovo, ovvero il caso e/o l'errore di misura. Si supponga di avere una moneta recante due facce contrassegnate con testa e croce. Volendo verificare l'ipotesi di bilanciamento della moneta si eseguono 20 lanci e si contano quelli che danno esito testa. La conseguenza del bilanciamento consiste nell'osservare un valore di teste attorno a 10. Tuttavia anche in ipotesi di bilanciamento non si può escludere di osservare 20 teste. D'altronde, l'ipotesi di bilanciamento è logicamente compatibile con un numero di teste variante da 0 a 20. In tale contesto una qualsiasi decisione in merito all'ipotesi da verificare comporta un rischio di errore. Ad esempio rigettare l'ipotesi di bilanciamento della moneta avendo osservato 20 teste su 20 lanci comporta il rischio di prendere una decisione errata. Nel procedere alla verifica dell'ipotesi di bilanciamento della moneta, si ricorre a una variabile casuale X. Tale variabile casuale X è una variabile aleatoria discreta con distribuzione binomiale B(20; 0,5), dove 20 indica il numero di lanci e 0,5 la probabilità che si verifichi l'evento "testa". Il risultato sperimentale si deve quindi confrontare con tale distribuzione: quanto è distante tale risultato dal valore medio della distribuzione B(20; 0,5)? Per rispondere alla domanda si deve individuare un valore caratteristico della distribuzione B(20; 0,5). Nel nostro caso tale valore caratteristico è il valore medio 20/2 = 10. Per valutare la distanza tra il valore sperimentale e quello atteso si valuta la probabilità di ottenere un valore sperimentale lontano dal valore medio di B(20; 0,5), ossìa nel caso che dal nostro esperimento risulti X=15 (15 teste dopo 20 lanci), si calcola P{|X-10|>=15-10} quindi P{X<=5 oppure X>=15}=0,041. Quindi, usando una moneta ben bilanciata, la probabilità di ottenere un numero di teste X >= 15 (oppure X <= 5) dopo 20 lanci è pari a 0,041 ossia al 4,1%. Giudicando bassa tale probabilità si rifiuterà l'ipotesi di bilanciamento della moneta in esame, accettando quindi il rischio del 4,1% di compiere un errore nel rifiutarla. Di solito, il valore della probabilità adottato per rifiutare l'ipotesi nulla è < 0,05. Tale valore è detto livello di significatività ed è definibile come segue: il livello di significatività sotto l'ipotesi nulla è la probabilità di cadere nella zona di rifiuto quando l'ipotesi nulla è vera. Tale livello di significatività si indica convenzionalmente con α. Il livello di significatività osservato α del test per il quale si rifiuterebbe l'ipotesi nulla è detto valore-p ("p-value"). Riprendendo l'esempio sopra riportato il valore-p è pari a 0,041. Adottando nell'esempio α = 0,05, si rifiuterà l'ipotesi se P{|X-10|>=x}<0,05. Tale condizione si raggiunge appunto se X<6 oppure X>14. Tale insieme di valori si definisce convenzionalmente come regione di rifiuto. Viceversa l'insieme { 6,7…14} si definisce regione di accettazione. In questo modo si è costruita una regola di comportamento per verificare l'ipotesi di bilanciamento della moneta. Tale regola definisce il test statistico. In termini tecnici l'ipotesi da verificare si chiama ipotesi nulla e si indica con "H", mentre l'ipotesi alternativa con "H". Nel caso della moneta, se "p" è la probabilità di ottenere testa in un lancio la verifica di ipotesi si traduce nel seguente sistema: Come già osservato, il modo di condurre un test statistico comporta un rischio di errore. Nella pratica statistica si individuano due tipi di errori: Tornando all'esempio della moneta in cui la regione di accettazione è data dall'insieme di valori {6..14}, la probabilità di rifiutare H quando è vera è stato calcolato pari a 0,041.Tale probabilità rappresenta il rischio di incorrere in un errore di primo tipo e si indica con α. Per valutare la probabilità di un errore di secondo tipo è necessario specificare un valore di "p" in caso di verità di H. Si supponga che p=0,80, in tal caso la distribuzione di X è una B(20;0,80) Con tale distribuzione di probabilità, l'errore di tipo "2" si calcola sommando le probabilità relative ai valori di X della zona di accettazione, ciò supponendo H vera. Si trova quindi che la probabilità cercata è pari a circa 0,20. Tale probabilità quantifica il rischio di incorrere nell'errore di tipo "2." e si indica convenzionalmente con β. La quantità 1-β si chiama "potenza del test" ed esprime quindi la capacità di un test statistico di riconoscere la falsità di H quando questa è effettivamente falsa. La potenza del test trova applicazione nella pratica statistica in fase di pianificazione di un esperimento.
Test di verifica d'ipotesi
In statistica bayesiana, la probabilità a posteriori di un evento aleatorio o di una proposizione incerta, è la probabilità condizionata che è assegnata dopo che si è tenuto conto dell'informazione rilevante o degli antefatti relativi a tale evento aleatorio o a tale proposizione incerta. Similmente, la distribuzione di probabilità a posteriori è la distribuzione di una quantità incognita, trattata come una variabile casuale, condizionata sull'informazione posta in evidenza da un esperimento o da un processo di raccolta di informazione rilevanti (es. un'ispezione, un'indagine conoscitiva, ecc.). La probabilità a posteriori è la probabilità dei parametri formula_1 data la conoscenza di formula_2: formula_3. Essa differisce dalla funzione di verosimiglianza, che è la probabilità di possedere una data conoscenza una volta dati i parametri: formula_4. I due concetti sono però tra loro collegati: Supponiamo di avere una credenza a priori che la funzione di distribuzione di probabilità sia formula_5 e i dati osservati formula_2 con una verosimiglianza formula_4, allora la probabilità a posteriori è definita come La probabilità a posteriori può essere scritta in una forma mnemonica come Consideriamo una scuola mista composta dal 60% di ragazzi e dal 40% di ragazze. Le ragazze indossano pantaloni o gonne in numeri eguali, i ragazzi indossano tutti pantaloni. Un osservatore vede da distante uno studente (a caso); tutto quello che può dire è che indossa pantaloni. Qual è la probabilità che lo studente sia una ragazza? La risposta corretta può essere dedotta applicando il teorema di Bayes. L'evento "G" è quello in cui lo studente visto è una ragazza, e l'evento "T" è quello in cui lo studente visto indossa pantaloni. Per calcolare P("G"|"T") abbiamo prima bisogno di sapere: Una volta ottenute tutte queste informazioni, la probabilità che l'osservatore abbia individuato una ragazza una volta visto uno studente che indossa pantaloni può essere calcolata sostituendo i valori nella formula: La distribuzione di probabilità a posteriori di una variabile casuale dato il valore di un'altra, può essere calcolata con il teorema di Bayes moltiplicando la distribuzione di probabilità a priori per la funzione di verosimiglianza, e quindi dividendo per una costante di normalizzazione come segue: la quale fornisce la funzione di densità di probabilità per una variabile casuale "X" una volta dato "Y" = "y", dove Nell'ambito della classificazione statistica le probabilità a posteriori riflettono l'incertezza nell'assegnare un'osservazione ad una classe particolare. Mentre i metodi di classificazione statistica per definizione generano probabilità a posteriori, gli apprenditori automatici solitamente forniscono valori di appartenenza che non inducono alcuna confidenza di tipo probabilistico. È desiderabile trasformare o convertire i valori di appartenenza a valori di probabilità di appartenenza ad una certa classe in quanto tali classi sono, in confronto ai primi, di più facile trattamento in susseguenti elaborazioni.
Probabilità a posteriori
0
In teoria della probabilità la probabilità condizionata di un evento "A" rispetto a un evento "B" è la probabilità che si verifichi "A", sapendo che "B" è verificato. Questa probabilità, indicata formula_1 o formula_2, esprime una "correzione" delle aspettative per "A", dettata dall'osservazione di "B". Poiché, come si vedrà nella successiva definizione, formula_3 compare al denominatore, formula_1 ha senso solo se "B" ha una probabilità non nulla di verificarsi. È utile osservare che la notazione con il simbolo "Barra verticale" è comune con la definizione del connettivo logico NAND. Per esempio, la probabilità di ottenere "4" con il lancio di un dado a sei facce (evento "A") ha probabilità "P(A)=1/6" di verificarsi. "Sapendo" però che il risultato del lancio è un numero tra "4", "5" e "6" (evento "B"), la probabilità di "A" diventa Si consideri questo secondo esempio, la probabilità di ottenere "1" con il lancio di un comune dado (evento "A") ha probabilità "P(A)=1/6" di verificarsi. "Sapendo" però che il risultato del lancio è un numero tra "4", "5" e "6" (evento "B"), la probabilità di "A" diventa La probabilità di "A" condizionata da "B" è dove formula_8 è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi. In termini più rigorosi, dato uno spazio misurabile formula_9 di misura "P", ogni evento "B" eredita una struttura di spazio misurato formula_10, restringendo gli insiemi misurabili a quelli contenuti in "B", ed induce una nuova misura formula_11 su formula_9, con formula_13. Se formula_14 è uno spazio probabilizzato (formula_15) e "B" non è trascurabile (formula_16), allora riscalando formula_17 a formula_18 si ottiene lo spazio probabilizzato formula_19 delle probabilità condizionate da "B". La formula della probabilità condizionata permette di descrivere la probabilità congiunta come Ovvero, la probabilità che si verifichino sia "A" sia "B" è pari alla probabilità che si verifichi "B" moltiplicata per la probabilità che si verifichi "A" supponendo che "B" sia verificato. Due eventi "A" e "B" sono indipendenti quando vale una delle tre equazioni equivalenti Per trovare la probabilità dell'evento a destra negato si può usare la seguente formula: formula_24. Se "A" e "B" sono eventi disgiunti, cioè se formula_25, le loro probabilità condizionate sono nulle: sapendo che uno dei due eventi si è verificato, è impossibile che si sia verificato "anche" l'altro. Se l'evento "A" implica l'evento "B", cioè se formula_26, allora la loro intersezione è "A", per cui formula_27 e: Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per "P(A|B)" esprime la definizione classica di probabilità come "casi favorevoli ("A") su casi possibili ("B")". Invece, per "P(B|A)" otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso lato come la certezza che il tutto sia condizionato dalla parte. La speranza condizionata formula_30 di una variabile aleatoria "X" ad un evento "B" è la speranza di "X" calcolata sulle probabilità formula_31 (condizionate da "B"). La probabilità di un evento "A" può essere condizionata da una variabile aleatoria discreta "X", originando una nuova variabile aleatoria, formula_32, che per "X=x" assume il valore formula_33. Il teorema di Bayes esprime l'uguaglianza simmetrica formula_34 del teorema della probabilità composta come Questo teorema è alla base dell'inferenza bayesiana in statistica, dove "P" è detta "probabilità "a priori" di "B"" e "P" "probabilità "a posteriori" di "B"". Molti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema sia dalla confusione di "P(A|B)" con "P(A)" o con "P(B|A)". Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il paradosso di Simpson.
Probabilità condizionata
In statistica, la regressione di Poisson è una forma di modello lineare generalizzato di analisi di regressione usato per modellare il conteggio dei dati in tabelle contingenti. La regressione di Poisson assume che la variabile di risposta Y ha una distribuzione di Poisson, e assume che il logaritmo del suo valore aspettato possa essere modellato da una combinazione lineare di parametri sconosciuti. La regressione di Poisson è talvolta conosciuta anche come modello log-lineare, specialmente quando viene usato per modellare tabelle contingenti. La regressione binomiale negativa (NB2) è una famosa generalizzazione della regressione di Poisson perché allenta il presupposto altamente restrittivo che la varianza è uguale alla media come nel modello di Poisson La NB2 si basa sulla distribuzione mista Poisson-Gamma. Questo modello è molto usato perché modella l'eterogeneità della Poisson con la distribuzione Gamma.
Regressione di Poisson
0
Il metodo della massima verosimiglianza, in statistica, è un procedimento matematico per determinare uno stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di osservare una data realizzazione campionaria, condizionatamente ai valori assunti dai parametri statistici oggetto di stima. Il metodo è stato sviluppato, originariamente, dal genetista e statistico sir Ronald Fisher, tra il 1912 e il 1922. Data una distribuzione di probabilità formula_1, con funzione di massa (o densità, se continua) di probabilità formula_2, caratterizzata da un parametro formula_3, dato un campione di dati osservati formula_4 di dimensione formula_5 si può calcolare la probabilità associata ai dati osservati: D'altra parte, può darsi che il parametro formula_3 sia ignoto, sebbene sia noto che il campione è estratto dalla distribuzione formula_1. Un'idea per stimare formula_3 è allora utilizzare i dati a nostra disposizione: formula_4 per ottenere informazioni su formula_3. Il metodo della massima verosimiglianza ricerca il valore più "verosimile" di formula_3, ossia ricerca, all'interno dello spazio formula_13 di tutti i possibili valori di formula_3, il valore del parametro che "massimizza" la probabilità di aver ottenuto il campione dato. Da un punto di vista matematico, formula_15 o equivalentemente formula_16 è detta funzione di verosimiglianza, e lo stimatore di massima verosimiglianza è ottenuto come: Al fine di illustrare il metodo della massima verosimiglianza, si consideri un campione formula_18 di variabili casuali identicamente e indipendentemente distribuite, con distribuzione normale: formula_19. La funzione di verosimiglianza associata è: La massimizzazione della funzione di verosimiglianza è equivalente a massimizzarne il logaritmo: I parametri formula_22 e formula_23 sono determinati risolvendo il problema di massimo: Le condizioni del primo ordine per un massimo definiscono il seguente sistema di equazioni in formula_22 e formula_23: dove i segni di apice sopra i parametri denotano i loro stimatori. Dalla prima equazione discende immediatamente lo stimatore di massima verosimiglianza per la media: cioè la media campionaria. La varianza dello stimatore formula_30 è data dalla seguente espressione: Sostituendo formula_30 nella seconda equazione, si ha lo stimatore di massima verosimiglianza per la varianza: cioè la varianza campionaria. L'esempio è particolarmente calzante, perché consente di illustrare alcune proprietà degli stimatori di massima verosimiglianza. È immediato verificare la correttezza (o "unbiasedness") di formula_30: D'altra parte, formula_36 non gode di tale proprietà. Ricordando che: segue che: Dunque formula_36 non è uno stimatore corretto; un tale stimatore sarebbe dato dalla statistica: Val la pena d'altra parte di osservare che lo stimatore di massima verosimiglianza è comunque uno stimatore asintoticamente corretto; infatti: In particolare, qualunque stimatore di massima verosimiglianza è asintoticamente corretto e asintoticamente normalmente distribuito. L'espressione per la varianza dello stimatore formula_36 è al di là degli scopi di questo esempio. È interessante osservare che gli stimatori derivati in questa sezione sono identici a quelli ottenibili, nelle stesse condizioni, impiegando il metodo dei momenti; a scanso di equivoci, si precisa che i due metodi di ricerca degli stimatori non conducono necessariamente a individuare gli stessi stimatori in condizioni più generali. Al di là dei problemi evidenziati negli esempi sopra, altre difficoltà, di portata più generale, possono essere associate agli stimatori di massima verosimiglianza. Il valore dello stimatore di massima verosimiglianza può non appartenere allo spazio dei parametri formula_13. Si consideri il caso di un campione formula_44 di v.c. identicamente e indipendentemente distribuite, con distribuzione di Poisson di parametro formula_45. La funzione di verosimiglianza associata è: Così che la funzione di log-verosimiglianza risulta: Lo stimatore di massima verosimiglianza sarebbe dunque formula_48. Si supponga tuttavia che formula_49; poiché formula_50, la stima ottenuta con il metodo della massima verosimiglianza non è ammissibile. A prima vista il problema potrebbe apparire un dettaglio matematico di scarso rilievo nella pratica; la sua portata nelle applicazioni è tuttavia più rilevante di quanto sembri. Restando nell'ambito dell'esempio testé esposto, si osservi che la variabile casuale poissoniana è spesso utilizzata come modello per il numero di arrivi a uno sportello, un ufficio, la fermata di un autobus, etc. (si tratta di un'applicazione della teoria delle code, che fa per la precisione riferimento al processo di Poisson); in tale contesto, formula_51 rappresenta il tasso atteso di arrivi per unità di tempo. È chiaro che ipotizzare formula_52 in qualche misura snatura il processo sotto esame: può darsi che, nell'intervallo di tempo corrispondente al campione utilizzato per la stima, nessun cliente sia arrivato allo sportello (nessun passeggero alla fermata dell'autobus, etc.); ciò non significa che ci si debba aspettare che nessun cliente (o passeggero, etc.) arrivi mai! Lo stimatore di massima verosimiglianza, inoltre, "non è necessariamente unico". Si consideri, ad esempio, il caso di un campione formula_53 di variabili casuali identicamente e indipendentemente distribuite, aventi distribuzione uniforme sull'intervallo formula_54, con formula_55. La funzione di verosimiglianza associata è: dove formula_57 denota la funzione indicatrice. Si supponga che il campione sia ordinato in modo tale che: (tale ipotesi è lecita in quanto le formula_59 sono indipendentemente distribuite). È facile mostrare che: Ne consegue che lo stimatore di massima verosimiglianza per formula_3 è unico se e solo se formula_62; diversamente, un numero infinito di valori dello stimatore formula_63 massimizza la funzione di verosimiglianza. Se formula_63 è lo stimatore di massima verosimiglianza per il parametro formula_3, allora lo stimatore di massima verosimiglianza per formula_66 è formula_67, purché formula_68 sia una funzione biiettiva. Gli stimatori di massima verosimiglianza, come illustrato negli esempi, possono essere distorti (cioè non corretti o all'inglese "biased"), anche in maniera consistente. D'altra parte essi sono asintoticamente corretti. Gli stimatori di massima verosimiglianza non conseguono in generale il limite inferiore per la varianza stabilito dal risultato di Cramér-Rao, lo conseguono però asintoticamente, cioè la varianza si discosta dal limite inferiore di Cramér-Rao per una quantità infinitesima al crescere di "n". Gli stimatori di massima verosimiglianza sono inoltre asintoticamente normalmente distribuiti.
Metodo della massima verosimiglianza
Una rete bayesiana (BN, "Bayesian network") è un modello grafico probabilistico che rappresenta un insieme di variabili stocastiche con le loro dipendenze condizionali attraverso l'uso di un grafo aciclico diretto (DAG). Per esempio una rete Bayesiana potrebbe rappresentare la relazione probabilistica esistente tra i sintomi e le malattie. Dati i sintomi, la rete può essere usata per calcolare la probabilità della presenza di diverse malattie. Il termine "modello gerarchico" è talvolta considerato un particolare tipo di rete Bayesiana, ma non ha nessuna definizione formale. Qualche volta viene usato per modelli con tre o più livelli di variabili stocastiche; in altri casi viene usato per modelli con variabili latenti. Comunque in generale qualsiasi rete Bayesiana moderatamente complessa viene usualmente detta "gerarchica". Formalmente le reti Bayesiane sono grafi diretti aciclici i cui nodi rappresentano variabili casuali in senso Bayesiano: possono essere quantità osservabili, variabili latenti, parametri sconosciuti o ipotesi. Gli archi rappresentano condizioni di dipendenza; i nodi che non sono connessi rappresentano variabili che sono condizionalmente indipendenti tra di loro. Ad ogni nodo è associata una funzione di probabilità che prende in input un particolare insieme di valori per le variabili del nodo genitore e restituisce la probabilità della variabile rappresentata dal nodo. Per esempio, se i genitori del nodo sono variabili booleane allora la funzione di probabilità può essere rappresentata da una tabella in cui ogni entry rappresenta una possibile combinazione di valori vero o falso che i suoi genitori possono assumere. Esistono algoritmi efficienti che effettuano inferenza e apprendimento a partire dalle reti Bayesiane. Le reti Bayesiane che modellano sequenze di variabili che variano nel tempo sono chiamate reti Bayesiane dinamiche. Matematicamente, una rete bayesiana è un grafo aciclico orientato in cui: Una rete bayesiana rappresenta la distribuzione della probabilità congiunta di un insieme di variabili.
Rete bayesiana
0
Nella terminologia statistica, la variabilità di un carattere X, rilevato su n unità statistiche, è l'attitudine di questo a manifestarsi in diversi modi, ossia con diverse modalità. Quando il carattere è "quantitativo", la variabilità può essere misurata usando indici basati sulla distanza delle modalità rispetto ad un indice di posizione (generalmente rispetto alla media aritmetica o alla mediana); gli indici di variabilità più utilizzati sono la varianza, lo scarto quadratico medio o deviazione standard, il coefficiente di variazione. Se invece il carattere è "qualitativo", la variabilità può essere misurata con indici di eterogeneità. Le proprietà della variabilità sono: Esempio 1: rileviamo il carattere reddito su 5 unità statistiche; supponiamo che il risultato della rilevazione sia 1.000 euro su ognuna delle 5 unità: in tal caso la variabilità del carattere sarà nulla perché il carattere reddito si è manifestato sempre nello stesso modo (ossia con un'unica modalità: 1.000). Esempio 2: supponiamo che, nel contesto dell'esempio precedente, il risultato della rilevazione sia 1.000 sulla prima unità, 1.100 sulla seconda, 1.500 sulla terza, 5.000 sulla quarta e 8.500 sulla quinta; in tal caso, la variabilità del carattere risulta maggiore di zero, perché il carattere si è manifestato sulle cinque unità statistiche con diverse modalità. Esempio 3: supponiamo ora che il risultato della rilevazione sia 800 sulla prima unità, 12.000 sulla seconda, 6.500 sulla terza, 9.000 sulla quarta e 2.500 sulla quinta; in tal caso la variabilità aumenta perché le modalità rilevate, oltre ad essere tutte diverse, risultano essere più "distanti" tra loro. In generale, la variabilità di un carattere quantitativo è tanto maggiore quanto più numerose sono le modalità con cui esso si manifesta sulle unità statistiche e quanto più le modalità rilevate sono "distanti" tra loro.
Variabilità
tatistica, gli indici di posizione (anche detti indicatori di posizione, o indici di tendenza centrale o misure di tendenza centrale, in quanto in generale tendono a essere posizionati centralmente rispetto agli altri dati della distribuzione) sono indici che danno un'idea approssimata dell'ordine di grandezza (la posizione sulla scala dei numeri, appunto) dei valori esistenti. Sono indici di posizione: Un modo per rappresentare graficamente alcuni indici di posizione è il box-plot.
Indice di posizione
0

Prerequisite RElation LEARNing (PRELEARN)

Original Paper: https://ceur-ws.org/Vol-2765/paper164.pdf

This dataset contains a collection of binary-labelled concept pairs (A,B) extracted from textbooks on four domains: data mining, geometry, physics and precalculus. Then, domain experts were asked to manually annotate if pairs of concepts showed a prerequisite relation or not, therefore the dataset consists of both positive and negative concept pairs.

We obtained the data from the original repository, making only one modification: undersampling the training data, to have a balanced set. To evaluate generative models in in-context learning, it's essential to have a balanced distribution for sampling examples in a few-shot setting. The undersampling process was carried out randomly, and separately for each domain.

Example

Here you can see the structure of the single sample in the present dataset.

{
  "concept_A": string, # text of the concept A
  "wikipedia_passage_concept_A": string, # paragraph of wikipedia corresponding to concept A
  "concept_B": string, # text of the concept B
  "wikipedia_passage_concept_B": string, # paragraph of wikipedia corresponding to concept B
  "target": int, # 0: B non è preconcetto di A, 1: B è preconcetto di A
}

Statitics

PRELEARN Data Mining 0 1
Training 109 109
Test 50 49
PRELEARN Physics 0 1
Training 315 315
Test 100 100
PRELEARN Geometry 0 1
Training 332 332
Test 100 100
PRELEARN Precalculus 0 1
Training 408 408
Test 100 100

Proposed Prompts

Here we will describe the prompt given to the model over which we will compute the perplexity score, as model's answer we will chose the prompt with lower perplexity. Moreover, for each subtask, we define a description that is prepended to the prompts, needed by the model to understand the task.

Description of the task: "Dati due concetti A e B, indica se il primo concetto è un prerequisito per il secondo.\nIl concetto A è prerequisito per il concetto B, se per comprendere B devi prima aver compreso A.\nI seguenti concetti appartengono al dominio: {{domain}}.\n\n"

Cloze Style:

Label (B non è prerequisito di A): "{{concept_B}} non è un prerequisito per {{concept_A}}"

Label (B è prerequisito di A): "{{concept_B}} è un prerequisito per {{concept_A}}"

MCQA Style:

Domanda: il concetto \"{{concept_B}}\" è un prerequisito per la comprensione del concetto \"{{concept_A}}\"? Rispondi sì o no:

Results

The following results are given by the Cloze-style prompting over some english and italian-adapted LLMs.

PRELEARN (AVG) ACCURACY (15-shots)
Gemma-2B 60.12
QWEN2-1.5B 57.00
Mistral-7B 64.50
ZEFIRO 64.76
Llama-3-8B 60.63
Llama-3-8B-IT 63.76
ANITA 63.77

Aknwoledge

We would like to thank the authors of this resource for publicly releasing such an intriguing benchmark.

Additionally, we extend our gratitude to the students of the MNLP-2024 course, whose first homework explored various interesting prompting strategies.

The original dataset is freely available for download link.

License

The data come under the license Creative Commons Attribution Non Commercial Share Alike 4.0 International

Downloads last month
80

Collection including sapienzanlp/prelearn