Regressione nonlineare
In statistica la regressione non lineare è un metodo di stima di una curva interpolante un modello della forma:
su un insieme di osservazioni (eventualmente multi-dimensionali), concernenti le variabili , .
Metodi di stima
[modifica | modifica wikitesto]Diversamente da quanto accade nel caso della regressione lineare, non esiste un metodo generale per determinare i valori dei parametri che garantiscono la migliore interpolazione dei dati. A tal fine, si ricorre a classi di algoritmi numerici di ottimizzazione, che a partire da valori iniziali, scelti a caso o tramite un'analisi preliminare, giungono a punti ritenuti ottimali. Si potrebbero avere dei massimi locali della bontà del fitting, in contrasto ancora con il caso della regressione lineare, in cui il massimo è di natura globale.
Linearizzazione
[modifica | modifica wikitesto]Diversi modelli nonlineari possono essere linearizzati (cioè trasformati in modelli lineari, riducendo così l'onerosità numerica del problema di stima). Un esempio è dato dai modelli:
e
Il primo emerge naturalmente in una varietà di contesti, come soluzione di equazioni differenziali ordinarie; il secondo è tipico dell'ambito dell'economia e dell'econometria, come modello per la funzione di produzione. In entrambi i casi è possibile linearizzare i modelli applicando una trasformazione logaritmica.
I logaritmi nella regressione
Caso | Regressione | Interpretazione di |
---|---|---|
lin-log | Una variazione percentuale dell'1% in X determina una variazione pari a 0,01 in Y. | |
log-lin | Una variazione di un'unità in X (ΔX = 1) determina una variazione pari al 100 % in Y. | |
log-log | Una variazione pari all'1% in X determina una variazione pari al % in Y (elasticità). |
Ulteriori metodi
[modifica | modifica wikitesto]Modelli di maggiore complessità, quali ad esempio quelli caratterizzati da equazioni trascendenti come , sono stimati tramite algoritmi più sofisticati. Diversi software matematici contengono librerie di ottimizzazione: Gauss, GNU Octave, MATLAB, Mathematica; sono inoltre ampiamente disponibili librerie di ottimizzazione per linguaggi avanzati quali C++ o Fortran.
Chiarimenti sull'ambito di applicazione del metodo
[modifica | modifica wikitesto]Sovente si considera - erroneamente - che l'impiego del metodo dei minimi quadrati per stimare i parametri , , in un modello del tipo:
costituisca un caso di regressione nonlineare. In realtà, l'aggettivo (non-)lineare è riferito ai parametri, non alla(e) variabile(i) dipendente(i), per cui il modello sopra è stimato tramite i minimi quadrati ordinari come un modello di regressione lineare; si veda al riguardo il relativo articolo.
Voci correlate
[modifica | modifica wikitesto]- Interpolazione
- Interpolazione polinomiale
- Interpolazione spline
- Regressione lineare
- Algoritmo di Gauss-Newton
Controllo di autorità | Thesaurus BNCF 57284 · GND (DE) 4251077-6 |
---|