Friday 1 September 2017

Meta Regressione In Stata Forex


9.6.4 160 meta-regressione Se gli studi sono divisi in sottogruppi (vedere Sezione 9.6.2), questo può essere visto come una ricerca di come una caratteristica di studio categorica è associata con gli effetti di intervento nella meta-analisi. Ad esempio, gli studi in quale sequenza occultamento era adeguata possono portare a risultati diversi da quelli in cui era insufficiente. Qui, l'allocazione sequenza di occultamento, essendo sia adeguata o inadeguata, è una caratteristica categorica a livello di studio. Meta-regressione è un'estensione al sottogruppo analisi che permette l'effetto di continuo, così come categoriali caratteristiche da indagare, e in linea permette gli effetti di molteplici fattori esaminati simultaneamente (anche se questo è raramente possibile grazie al numero inadeguato di studi) 160 (Thompson 2002). La meta-regressione generalmente non deve essere presa in considerazione quando ci sono meno di dieci studi in una meta-analisi. Meta-regressioni sono simili in sostanza regressioni semplici, in cui una variabile esito è previsto in base ai valori di una o più variabili esplicative. In meta-regressione, la variabile risultato è la stima effetto (per esempio, una differenza media una differenza di rischio, un rapporto odds log o un rapporto rischio log). Le variabili esplicative sono le caratteristiche di studi che potrebbero influenzare la dimensione dell'effetto dell'intervento. Questi sono spesso chiamati potenziali modificatori effetto o covariate. Meta-regressione di solito differiscono da semplici regressioni in due modi. In primo luogo, gli studi più grandi hanno più influenza sul rapporto rispetto agli studi più piccoli, dal momento che gli studi sono ponderati per la precisione della loro rispettiva stima effetto. In secondo luogo, è saggio per consentire l'eterogeneità residua tra effetti d'intervento non modellati dalle variabili esplicative. Ciò dà luogo al termine effetti casuali meta-regressione, poiché la variabilità supplementare è incorporato nello stesso modo come in effetti casuali meta-analisi (Thompson 1999). Il coefficiente di regressione ottenuta dall'analisi di regressione meta-descriverà come la variabile esito (effetto dell'intervento) cambia con un incremento unitario nella variabile esplicativa (il potenziale effetto modificatore). La significatività statistica del coefficiente di regressione è un test se esiste una relazione lineare tra effetto dell'intervento e la variabile esplicativa. Se l'effetto dell'intervento è una misura rapporto il valore log-trasformato dell'effetto intervento deve essere sempre utilizzata nel modello di regressione (vedere Sezione 9.2.7), e l'esponenziale del coefficiente di regressione darà una stima della variazione relativa effetto intervento con un incremento unitario nella variabile esplicativa. La meta-regressione può essere utilizzato anche per studiare le differenze per le variabili esplicative categoriche come fatto in analisi per sottogruppi. Se ci sono J sottogruppi appartenenza a particolari sottogruppi è indicata utilizzando J 1 variabili dummy (che può assumere solo i valori di zero o uno) nel modello di meta-regressione (come nel modello di regressione lineare standard). I coefficienti di regressione si stimare come l'effetto dell'intervento in ogni sottogruppo si differenzia da un sottogruppo di riferimento nominato. Il valore P di ogni coefficiente di regressione indicherà se questa differenza è statisticamente significativa. La meta-regressione può essere eseguita utilizzando la macro metareg disponibile per il Stata Statistical Analysis package. Regression 13 Per trovare l'errore standard della stima, prendiamo la somma di tutti al quadrato termini residuali e dividere per (n - 2), e poi prendiamo la radice quadrata del risultato. In questo caso, la somma dei quadrati dei residui è 0.090.160.642.250.04 3.18. Con cinque osservazioni, n - 2 3, e vedere (3.183) 12 1.03. Il calcolo per l'errore standard è relativamente simile a quella di deviazione standard per un campione (n - 2 usata al posto di n - 1). Dà qualche indicazione sulla qualità predittiva di un modello di regressione, con i numeri vedere più bassi che indicano che le previsioni più accurate sono possibili. Tuttavia, lo standard-error misura doesnt indica la misura in cui la variabile indipendente spiega variazioni nel modello dipendente. Coefficiente di Determinazione Come l'errore standard, questa statistica dà un'indicazione di quanto bene un modello di regressione lineare serve come stimatore di valori per la variabile dipendente. Funziona misurando la frazione di variazione totale nella variabile dipendente che può essere spiegato dalla variazione della variabile indipendente. In questo contesto, la variazione totale è costituito di due frazioni: Variazione totale spiegato variazione inspiegabile variazione totale variazione variazione totale Il coefficiente di determinazione. o variazione spiegata come percentuale di variazione totale, è il primo di questi due termini. A volte è espresso come 1 - (variazione inspiegabile variazione totale). Per una semplice regressione lineare con una variabile indipendente, il metodo semplice per calcolare il coefficiente di determinazione è squadratura il coefficiente di correlazione tra le variabili dipendenti ed indipendenti. Poiché il coefficiente di correlazione è dato da r, il coefficiente di determinazione è comunemente noto come R 2 o R-squared. Ad esempio, se il coefficiente di correlazione è 0,76, il R-squared è (0.76) 2 0,578. termini R-squared sono di solito espresse come percentuali così 0,578 sarebbero 57,8. Un secondo metodo di calcolo di tale numero sarebbe di trovare la variazione totale nella variabile dipendente Y come la somma dei quadrati delle deviazioni dalla media del campione. Avanti, calcolare l'errore standard della stima a seguito del processo descritto nella sezione precedente. Il coefficiente di determinazione viene quindi calcolato (variazione totale Y - variazione inspiegabile Y) variazione totale in Y. Questo secondo metodo è necessario che più regressioni, dove c'è più di una variabile indipendente, ma per il nostro contesto sarà fornito noi r (coefficiente di correlazione) per calcolare un R-squared. Cosa R 2 ci dice è i cambiamenti nella variabile Y dipendente che sono spiegati da cambiamenti nella R X. variabile indipendente 2 di 57.8 ci dice che il 57,8 dei cambiamenti nel risultato Y da X significa anche che 1-57,8 o 42,2 di le variazioni di Y sono inspiegabili da X e sono il risultato di altri fattori. Quindi maggiore è la, migliore è la natura R-squared predittiva del modello lineare regressione. Coefficienti di regressione sia per coefficiente di regressione (intercettare una, o pendenza b), un intervallo di confidenza può essere determinato con le seguenti informazioni: 13 Un valore di parametro stimato da un campione di 13 Errore standard della stima (vedi) di livello 13 Significato per la t - distribuzione di 13 gradi di libertà (che è la dimensione del campione - 2) 13 per un coefficiente di pendenza, la formula per intervallo di fiducia è dato da VEDI BTC, dove tc è il valore t critica al nostro livello significativo prescelto. Per illustrare, prendere una regressione lineare con fondi comuni restituisce come variabile dipendente e l'indice SampP 500 come variabile indipendente. Per cinque anni di rendimenti trimestrali, il coefficiente di pendenza b si trova ad essere 1,18, con un errore standard della stima di 0.147. Studenti t-distribuzione per 18 gradi di libertà (20 quarti - 2) ad un livello di significatività 0.05 è 2.101. Questi dati ci dà un intervallo di confidenza del 1,18 (0,147) (2.101), o un intervallo di 0,87-1,49. La nostra interpretazione è che c'è solo un 5 possibilità che la pendenza della popolazione è o meno di 0.87 o superiore a 1,49 - siamo 95 sicuri che questo fondo è di almeno 87 volatile come il SampP 500, ma non più di 149 come volatile, basato sul nostro campione di cinque anni. coefficienti di test di ipotesi e di regressione coefficienti di regressione sono spesso testati utilizzando la procedura di verifica delle ipotesi. A seconda di ciò l'analista intende dimostrare, possiamo testare un coefficiente di pendenza per determinare se spiega occasioni nella variabile dipendente, e la misura in cui spiega modifiche. Beta (coefficienti di pendenza) possono essere determinate per essere sopra o sotto 1 (più volatili o meno volatile rispetto al mercato). Alfa (il coefficiente di intercettazione) può essere testato su una regressione tra un fondo comune di investimento e l'indice di mercato rilevante per determinare se vi è evidenza di un alfa sufficientemente positivo (valore aggiunto suggerendo dal gestore del fondo). La meccanica di test di ipotesi sono simili agli esempi che abbiamo usato in precedenza. Una ipotesi nulla viene scelta in base maggiore di o caso meno-che-non-uguali a,, con l'alternativa soddisfare tutti i valori che non rientrano nel caso nullo. Supponiamo che nel nostro esempio precedente in cui abbiamo regredito a fondi comuni di investimento torna sui 500 per 20/4 SampP la nostra ipotesi è che questo fondo comune di investimento è più volatile rispetto al mercato. Un fondo pari della volatilità al mercato avrà pendenza b di 1,0, quindi per questo test ipotesi si specifica l'ipotesi nulla (H 0) come il caso in cui pendenza è inferiore o superiore a 1,0 (cioè H 0: b lt 1.0 ). L'ipotesi alternativa H a ha b gt 1.0. Sappiamo che questo è un caso di maggiore (cioè una coda) - se si assume un livello di significatività 0.05, t è pari a 1.734 in gradi di libertà n - 2 18. Esempio: Interpretare una verifica dell'ipotesi Dal nostro campione, aveva stimato B di 1.18 e l'errore standard di 0.147. La nostra statistica del test viene calcolata con questa formula: t stimato Coefficiente - ipotizzato coeff. errore standard (1,18-1,0) 0,147 0.180.147, o t 1.224. Per questo esempio, la nostra statistica test calcolata è al di sotto del livello di rifiuto di 1.734, quindi non sono in grado di rifiutare l'ipotesi nulla che il fondo è più volatile rispetto al mercato. Interpretazione: l'ipotesi che B GT 1 per questo fondo, probabilmente ha bisogno di più osservazioni (gradi di libertà) per essere provato con significatività statistica. Inoltre, con 1,18 di poco superiore a 1.0, è del tutto possibile che questo fondo non è in realtà come volatile come il mercato, e siamo stati corretti di non rifiutare l'ipotesi nulla. Esempio: Interpretare un coefficiente di regressione L'esame CFA è probabile che dare le statistiche di riepilogo di una regressione lineare e chiedere per l'interpretazione. Per illustrare, assumere le seguenti statistiche per una regressione tra un fondo di crescita small cap e il Russell 2000 Index: 13 Coefficiente di correlazione 13 Le due sigle per capire RSS e SSE: 13 RSS. o la somma di regressione dei quadrati, è la quantità di variazione totale in Y variabile dipendente che si spiega nell'equazione di regressione. Il feed viene calcolato calcolando ciascuna deviazione tra un valore Y predetto e il valore medio di Y, squadratura la deviazione e sommando tutti i termini. Se una variabile indipendente spiega nessuna delle variazioni di una variabile dipendente, allora i valori predetti di Y sono uguali al valore medio, e feed 0. 13 SSE. o la somma di errore quadratico dei residui, è calcolato trovando la deviazione tra un Y prevista e un vero Y, quadratura del risultato e sommando tutti i termini. 13 TSS, totale o variazione, è la somma di RSS e SSE. In altre parole, questo processo ANOVA rompe varianza in due parti: una che si spiega con il modello e uno che non lo è. In sostanza, per un'equazione di regressione di avere alta qualità predittiva, abbiamo bisogno di vedere un alto e un basso RSS SSE, che renderà il rapporto (RSS1) SSE (n - 2) alto e (sulla base di un confronto con un F - critica valore) statisticamente significativo. Il valore critico viene prelevato dalla F-distribuzione e si riferiscono al gradi di libertà. Ad esempio, con 20 osservazioni, gradi di libertà sia n - 2, o 18, risultando in un valore critico (dalla tabella) di 2,19. Se RSS erano 2,5 e SSE sono stati 1,8, quindi la statistica test calcolata sarebbe F (2,5 (1.818) 25, che è al di sopra del valore critico, che indica che l'equazione di regressione ha qualità predittiva (b è diverso da 0) stimare Statistiche economiche con i modelli di regressione modelli di regressione sono spesso utilizzati per stimare le statistiche economiche come l'inflazione e la crescita del PIL assumere i seguenti regressione è fatta tra l'inflazione annuale stimato (X, o variabile indipendente) e il numero effettivo (Y o variabile dipendente). l'utilizzo di questo il modello, il numero di inflazione previsto sarebbe stato calcolato sulla base del modello per i seguenti scenari di inflazione: 13 l'inflazione stima 13 l'inflazione in base al modello 13 le previsioni basate su questo modello sembrano funzionare meglio per le stime tipiche di inflazione, e suggeriscono che le stime estremi tendono a sovrastimare l'inflazione - ad esempio una inflazione effettiva di appena 4.46, quando la stima era 4.7 il modello sembra suggerire che le stime sono altamente predittivi.. Anche se per valutare meglio questo modello, avremmo bisogno di vedere l'errore standard e il numero di osservazioni su cui si basa. Se conosciamo il vero valore dei parametri di regressione (pendenza e intercetta), la varianza di qualsiasi valore y previsto sarebbe pari al quadrato della errore standard. In pratica, dobbiamo stimare i parametri di regressione così il nostro valore previsto per Y è una stima basata su un modello di stima. Come fiducioso possiamo essere in un tale processo Al fine di determinare un intervallo di predizione, impiegare le seguenti operazioni: 1. prevedere il valore della variabile dipendente Y basata sull'osservazione indipendente X. 2. Calcolare la varianza dell'errore di predizione, utilizzando il seguente equazione: 13 Dove: s 2 è l'errore standard quadrato della stima, n è il numero di osservazioni, X è il valore della variabile indipendente utilizzata per effettuare la previsione, X è il valore medio stimato della variabile indipendente e sx 2 è la varianza di X. 3. Scegliere un livello di significatività per l'intervallo di confidenza. 4. Costruire un intervallo (1 -) la fiducia per cento, utilizzando la struttura Y t c s f. Ecco un altro caso in cui il materiale diventa molto più tecnico del necessario e si può ottenere impantanati nella preparazione, quando in realtà la formula per la varianza di un errore di previsione è neanche suscettibili di essere coperti. Dare priorità - non sprecare preziose ore di studio memorizzarlo. Se il concetto è testato a tutti, youll probabilmente essere data la risposta a Parte 2. Basta sapere come utilizzare la struttura nella parte 4 per rispondere a una domanda. Ad esempio, se l'osservazione X previsto è 2 per la regressione Y 1.5 2.5X, avremmo un Y previsto di 1,5 2,5 (2), o 6.5. Il nostro intervallo di confidenza è di 6,5 t c s f. La t-stat è basato su un intervallo di confidenza prescelto e gradi di libertà, mentre sf è la radice quadrata della suddetta equazione (per la varianza dell'errore di predizione. Se questi numeri sono tc 2.10 95 fiducia e sf 0,443, l'intervallo è 6.5 (2.1) (0,443), o 5,57-7,43 limitazioni di Analisi di regressione si concentrano su tre limitazioni principali:. 1. Parametro instabilità - Questa è la tendenza per le relazioni tra le variabili a cambiare nel corso del tempo a causa di cambiamenti nell'economia o nei mercati ., tra le altre incertezze se un fondo comune di investimento ha prodotto una storia di ritorno in un mercato in cui la tecnologia è un settore di leadership, il modello non può funzionare quando i mercati esteri e bassa capitalizzazione sono leader 2. pubblica diffusione del rapporto -. in un mercato efficiente , questo può limitare l'efficacia di quella relazione in periodi futuri. ad esempio, la scoperta che le scorte a basso prezzo-to-book value superano alto valore prezzo-book significa che queste azioni possono essere un'offerta più alta, e gli approcci di investimento basate sul valore non manterrà la stessa relazione come in passato. 3. La violazione delle relazioni di regressione - In precedenza abbiamo riassunto i sei presupposti classici di una regressione lineare. Nel mondo reale queste assunzioni sono spesso irrealistiche - ad esempio assumendo l'X variabile indipendente non è casuale.

No comments:

Post a Comment