Metaprop: une commande de Stata pour effectuer une méta analyse de données binomiales Contexte Les méta analyses sont devenues un outil essentiel pour synthétiser des données cliniques et épidémiologiques issues d'une multitude d'études similaires évaluant le problème particulier. Un logiciel statistique approprié et accessible est nécessaire pour produire la statistique récapitulative d'intérêt. Metaprop est un programme statistique mis en œuvre pour effectuer des méta analyses de proportions dans Stata. Il s'appuie en outre sur la procédure Stata metan existante qui est généralement utilisée pour regrouper les effets (rapports de risque, odds ratio, différences de risques ou moyens) mais qui est également utilisée pour mettre en commun les proportions. Metaprop met en œuvre des procédures qui sont spécifiques aux données binomiales et permet de calculer des intervalles de confiance binomiaux et des tests de score basés sur des tests. Il fournit des méthodes appropriées pour traiter des proportions proches ou en marge où les procédures normales d'approximation se décomposent souvent, en utilisant la distribution binomiale pour modéliser la variabilité intra étude ou en permettant à Freeman Tukey double transformation arcsine pour stabiliser les variances. Metaprop a été appliqué sur deux méta analyses publiées: 1) la prévalence de l'infection à VPH chez les femmes ayant un frottis de Papanicolaou montrant ASC US 2) le taux de guérison après traitement pour le précancer du col utérin en utilisant la coagulation froide. La première méta analyse a montré une prévalence combinée du VPH de 43 (95 IC: 38 48). Dans la deuxième méta analyse, le pourcentage combiné de femmes guéries était de 94 (95 IC: 86 97). Conclusion En utilisant metaprop. Aucune étude avec 0 ou 100 proportions n'a été exclue de la méta analyse. En outre, l'étude des intervalles de confiance spécifiques et regroupés se situaient toujours dans des valeurs admissibles, contrairement à la publication originale, où metan a été utilisé. Méta analyse Stata Binomial Logistique normale Intervalles de confiance Freeman Tukey double transformation d'arcsine Les méta analyses combinent l'information de plusieurs études afin de dériver une estimation moyenne. Différentes méthodes de méta analyse existent en fonction de la statistique à déclarer. Les exemples de statistiques d'intérêt comprennent des mesures d'association telles que la différence de risque, le rapport de risque, le rapport de cotes, la différence de moyen ou simplement des mesures binomiales unidimensionnelles ou continues telles que des proportions ou des moyens. Il y a trois aspects importants dans la méta analyse: a) le cadre d'analyse, b) le modèle et c) le choix de la méthode pour estimer le paramètre d'hétérogénéité. Ces aspects interagissent entre eux. Un méta analyste a le choix entre le modèle des effets fixes et celui des effets aléatoires. Dans le modèle des effets fixes, on suppose que le paramètre d'intérêt est identique entre les études et que la différence entre la proportion observée et la moyenne n'est due qu'à l'erreur d'échantillonnage. Dans le modèle des effets aléatoires, la différence observée entre les proportions et la moyenne ne peut pas être entièrement attribuée à l'erreur d'échantillonnage et d'autres facteurs tels que les différences dans la population étudiée, les plans d'étude, etc. pourraient également contribuer. Chaque étude estime un paramètre différent et l'estimation groupée décrit la moyenne de la distribution des paramètres estimés. Le paramètre de variance décrit l'hétérogénéité des études et, dans le cas où la variance est nulle, ce modèle se réduit simplement au modèle des effets fixes. Il existe trois cadres de modélisation des données binomiales. Le cadre le plus populaire utilise l'approximation de la distribution normale par l'utilisation de transformations et est connu sous le nom approche approximative de vraisemblance 1. 2. Certaines des transformations courantes comprennent le logit et l'arcsine 3. Certaines des raisons pour lesquelles cette approche est populaire comprennent un niveau inférieur d'expertise statistique requise, des calculs plus rapides et la disponibilité de logiciels pour effectuer l'analyse. La seconde approche reconnaît la vraie nature des données et est connue sous le nom d'approche par vraisemblance exacte. Dans ce cadre, la relation spéciale entre la moyenne et la variance caractérisée par des données binomiales est captée par la distribution binomiale 4. La distribution bêta binomiale 5 peut être utilisée pour adapter un modèle à effets aléatoires tel que la distribution bêta décrit la distribution des paramètres binomiaux variables. Bien qu'il soit possible d'effectuer des calculs pour estimer les paramètres du modèle binomial, le logiciel statistique le plus courant manque de fonction pour s'adapter au modèle bêta binomial et par conséquent, cette approche est la moins populaire. Le logiciel WinBUGS, un logiciel pour les statistiques bayésiennes, est capable d'effectuer ces analyses. D'autres logiciels, par exemple R et SAS (PROC NLMIXED) peuvent également être utilisés, mais une programmation complète est nécessaire. La troisième approche est un compromis entre la probabilité approximative et la vraisemblance exacte. Dans la première étape, les données sont modélisées à l'aide de la distribution binomiale. Dans la deuxième étape, la distribution normale est utilisée après la transformation logit pour modéliser l'hétérogénéité parmi les études. C'est une approche émergente qui est souvent recommandée par les statisticiens 4. La plupart des logiciels statistiques, y compris Stata (melogit), R, SAS (PROC NLMIXED) ont la capacité d'effectuer ces analyses. Il existe trois méthodes populaires pour estimer les paramètres. La méthode non itérative popularisée par Dersimonian et Laird 6. Les deux autres méthodes sont la méthode de maximum de vraisemblance (ML) et de maximum de vraisemblance restreinte (REML). Pour les modèles à effets aléatoires, la méthode REML est préférée parce que ML conduit à une sous estimation du paramètre de variance. Pour les modèles mixtes linéaires généralisés 2. 7. 8 pour lesquels les modèles de données binomiales diminuent, la méthode REML n'est pas utilisée en raison du calcul intensif des intégrations à haute dimension des effets aléatoires et, par conséquent, la plupart des logiciels estiment le paramètre d'hétérogénéité à l'aide de ML Méthodes. La procédure proposée par Dersimonian et Laird est efficace pour la moyenne mais pas pour le paramètre d'hétérogénéité 9. Différentes procédures pour effectuer la méta analyse ont été mises en œuvre dans le Stata command metan 10. Dans metan. Les intervalles de confiance sont calculés en utilisant la distribution normale basée sur la variance asymptotique. Pour des proportions, ces intervalles peuvent contenir des valeurs inadmissibles, surtout lorsque la statistique est proche de la frontière. En outre, le calcul des intervalles de confiance n'est pas possible lorsque la statistique se trouve sur la frontière, l'erreur type estimée étant fixée à zéro et, par conséquent, la commande metan exclut automatiquement les études dont la proportion est égale à 0 ou 1 du calcul du pool estimation. Les tests d'importance sur la proportion regroupée reposent généralement sur des probabilités normales. Les proportions (p r n) sont binomiales et la distribution normale est une bonne approximation de la distribution binomiale si n est assez grand et p n'est pas proche des marges 11. Lorsque n est petit et / ou p est proche des marges, la statistique de test peut ne pas être approximativement distribuée normalement en raison de son asymétrie et de sa discrétion. Pour rendre les hypothèses de distribution normales plus applicables aux tests de signification, plusieurs transformations ont été suggérées. Freeman et Tukey 12 ont présenté une transformation d'arcsine double pour stabiliser la variance. Nous avons développé la métaprop. Un nouveau programme dans Stata pour effectuer des méta analyses de données binomiales pour compléter la commande metan, qui est généralement utilisée pour regrouper des associations. Metaprop construit plus loin sur la procédure metan. Il permet le calcul de 95 intervalles de confiance en utilisant la statistique de score et la méthode binomiale exacte et incorpore la transformation de proportion de Freeman Tukey double arcsine. Le programme permet également de modéliser la variabilité à l'intérieur de l'étude en utilisant la distribution binomiale. Cet article présente un aperçu général du programme pour servir de point de départ aux utilisateurs intéressés à effectuer une méta analyse des proportions dans le logiciel Stata. Une description détaillée des différentes procédures statistiques permettant d'effectuer une méta analyse qui peut être effectuée avec metan peut être trouvée ailleurs 10. Dans cet article, nous présentons des procédures spécifiques à la mise en commun des données binomiales, y compris les méthodes de calcul des intervalles de confiance, la continuité correcte et la transformation Freeman Tukey. Le tableau 1 résume les caractéristiques des procédures présentées. Résumé des procédures disponibles en métaprop Les intervalles de confiance pour les études individuelles Deux types d'intervalles de confiance pour les proportions spécifiques de l'étude ont été mis en œuvre. Tout au long du texte, pour l'étude i. R i désigne le nombre d'observations avec une certaine caractéristique, n i le nombre total d'observations, p i r i n i est la proportion observée, k le nombre total d'études dans la méta analyse et 1 fait référence au niveau de confiance choisi. Intervalles de confiance exacts Les limites de confiance exactes ou Clopper Pearson 13 pour une proportion binomiale sont construites en inversant le test à queue égale sur la base de la distribution binomiale. P X i r i 2 et P X i r i 2 pour X i 0. 1. r i. . N i. Le point d 'extrémité inférieur est le quantile 2 d' une distribution bêta Beta (x i, n i x i 1) et le point final supérieur est le quantile 1 2 d 'une distribution bêta Beta (x i 1, n i x i) 14. Puisque la distribution binomiale est discrète, la probabilité de couverture des intervalles exacts n'est pas exactement (1) mais au moins (1) et par conséquent les intervalles de confiance exacts sont considérés comme conservateurs 15. Niveaux de confiance des scores L'intervalle de confiance des scores 16 a une couverture proche du niveau de confiance nominal, même avec de petites tailles d'échantillon. Il a été montré pour effectuer mieux que le Wald et les intervalles de confiance exacts 1. 15. Les limites de confiance pour la i ème étude sont calculées comme p i z 2 n i z p i (1 p i) z 4 n i n i 1 z n i. Où z est le 2 e centile de la distribution normale normale. La transformation stabilisante de la variance des proportions, telle que proposée par Freeman et Tukey 12, normalise les résultats avant la mise en commun, est définie comme: sin 1 rini 1 sin 1 ri 1 ni 1. La variance asymptotique de la variable transformée est définie par: 1 ni 0,5. Ces transformations visent à obtenir une normalité approximative. L'estimation combinée est ensuite calculée en utilisant la méthode de Dersimonian et Laird 6 basée sur les valeurs transformées et leurs variances. Les intervalles de confiance pour l'estimation groupée sont ensuite calculés en utilisant la méthode de Wald. Inverse de la transformation d'arcsine double de Freeman Tukey Pour convertir les valeurs transformées en unités d'origine de proportions, Miller 3 a proposé la formule suivante p 1 2 1 signe (cos t) 1 sin t sin t 1 sin tn 2. où t Est la valeur transformée et n la taille de l'échantillon. Dans le paramètre de méta analyse, t est l'estimation groupée ou les intervalles de confiance basés sur des valeurs transformées. Dans la pratique, l'utilisation de cette formule implique habituellement la traduction des moyens de t s dérivés de binômes avec n différents comme c'est le cas dans la méta analyse où la plupart des études ont inclus des tailles d'échantillon différentes. Dans ce cas, Miller 3 a suggéré que la moyenne harmonique des n i s soit utilisée dans la formule de conversion. Pour un ensemble de nombres, la moyenne harmonique est l'inverse de la moyenne arithmétique des inverses des nombres dans l'ensemble. Le modèle d'effets aléatoires logistiques normaux Les événements observés r i sont supposés avoir une distribution binomiale avec les paramètres p i et la taille de l'échantillon n i. C'est à dire binomial r (p i. n i). La distribution normale est ensuite utilisée pour modéliser les effets aléatoires logit (p i) normal (.). Ici, est la moyenne d'une population de moyens possibles, et est la variance entre études, à la fois dans l'échelle logit. La procédure de maximum de vraisemblance (ML) est ici utilisée pour estimer. Le modèle ci dessus peut être réduit pour former le modèle des effets fixes en supposant que 0. Dans ce cas, le modèle est écrit en tant que r i binomial (p. n i). Les données utilisées pour l'illustration faisaient partie des méta analyses menées par Arbyn et al. 17 et Dolman et al. 18. Les jeux de données sont disponibles en tant qu'exemples cliquables dans le fichier d'aide pour la métaprop. Ensemble de données un Arbyn et al. 17 ont évalué le taux de positivité du test HPV chez les femmes présentant des anomalies cytologiques cervicales équivoques ou de faible intensité. HPV test a été proposé comme une méthode pour trier les femmes avec des anomalies cytologiques mineures identifiés par le dépistage du cancer du col utérin en utilisant le frottis de Pap 19. 20. La prévalence de l'infection par le VPH reflète le fardeau de l'aiguillage et du travail de diagnostic lorsque le test est utilisé pour trier les femmes présentant ces conditions cytologiques 17. Deux groupes d'anomalies cytologiques mineures peuvent être distingués: a) cellules squameuses atypiques de signification indéterminée (ASC US) ou dyskaryose borderline et b) lésion squameuse intraépithéliale (LSIL) de faible grade ou dyskaryose légère. La méta analyse a conclu que la grande majorité des femmes atteintes de LSIL étaient infectées par le VPH, ce qui suggère une utilité limitée du triage du VPH. Toutefois, chez les femmes atteintes d'ASC États Unis, plus de la moitié ont été testées négatives et pourraient être libérées suite à un suivi plus poussé. La figure 1 reproduit la méta analyse comprenant 32 études fournissant des données d'infection par le VPH en cas de cytologie cervicale équivoque (ASC US). La prévalence combinée de l'infection par le VPH, évaluée avec le test Hybrid Capture 2, était de 43 (95 CI: 39 46) (voir Figure 1 et Tableau 2). Méta analyse de la proportion de femmes atteintes d'un ASCUS ou d'un frottis borderline qui ont un test Hybrid Capture II positif. Sortie générée par la métaprophe Stata. Méta analyse de la présence de l'ADN du VPH à haut risque chez les femmes ayant une cytologie cervicale équivoque, selon le groupe terminologique (ASCUS, Dyskaryosis Borderline ou ASC US). L'ensemble de données contient l'auteur et l'année qui identifient chaque étude, où tgroup correspond au groupe de triage (ASCUS, LSIL, dyskaryosis borderline). Num et denom indiquent le nombre de femmes avec un test HPV positif (test HC2) et le nombre total de femmes testées, de sorte que frac den denom est la proportion avec un test HC2 positif. Se indique l'erreur type calculée sous la forme frac (1 frac) denom. Lo et up sont les intervalles de confiance inférieur et supérieur calculés en utilisant la méthode exacte. Ensemble de données deux Dolman et al. 18 ont publié une revue systématique sur l'efficacité de la coagulation froide pour traiter la néoplasie intra épithéliale cervicale (NIC). Treize rapports ont été inclus dans la méta analyse qui a montré un haut degré d'hétérogénéité parmi les études. Plusieurs études ont eu des taux de guérison proches de 100. Comme on le voit sur la figure 2, les intervalles de confiance de Wald donnent des valeurs supérieures à 1 pour certaines des études individuelles et pour la proportion regroupée pour les études menées en Europe. Estimations proportionnelles au traitement de la coagulation froide pour la maladie CIN1, selon la région du monde analysée par metan. L'ensemble de données contient nbcured et nbtreated indique le nombre de femmes guéries de CIN et le nombre total de femmes traitées pour CIN tel que fra nb curé nb traité est la proportion de femmes guéries de CIN, et se est l'erreur type. Région indique le continent dans lequel l'étude a été menée. Pour les études avec frac 1, se 0 et les auteurs ont remplacé se u p bas 2 1,96. Où les intervalles de confiance binomiaux étaient élevés et faibles pour s'assurer que ces études n'étaient pas exclues de l'analyse. Développement de logiciels La commande metaprop est une adaptation du programme metan développé par Harris et al. 10 destiné à effectuer des méta analyses à effets fixes et aléatoires dans Stata sur des variables continues ou des associations entre des variables continues ou binomiales. Le programme métaprop et son fichier d'aide sont disponibles pour téléchargement à l'adresse ideas. repec. orgcbocbocodes457781.html. La commande nécessite Stata 10 ou versions ultérieures et peut être directement installée dans Stata en tapant ssc install metaprop quand on est connecté à Internet. Une mise à jour de la métaprop pour inclure le modèle logistique normal des effets aléatoires est également disponible pour téléchargement. La commande mise à jour metapropone nécessite Stata 13 et peut être directement installée dans Stata en tapant ssc install metapropone quand on est connecté à Internet. Exemple 1 Nous reproduisons la figure 1 dans Arbyn et al. 17. Les proportions des métaprops et des pools présentent un sous groupe pondéré et des estimations globales combinées avec des pondérations de variance inverse obtenues à partir d'un modèle à effets aléatoires. Le tableau 2 et la figure 1 présentent tous deux les proportions spécifiques de l'étude avec 95 intervalles de confiance exacts pour chacun des deux groupes. L'étude, le sous groupe et l'estimation globale groupée avec 95 intervalles de confiance Wald et la statistique I 2 qui décrit le pourcentage de la variation totale due à l'hétérogénéité inter études. Le tableau présente des informations supplémentaires sur les proportions regroupées et comprend des tests d'hétérogénéité dans les sous groupes et dans l'ensemble. Une hétérogénéité intragroupe significative a été observée (p lt0.001 avec I 2 dépassant 93 pour tous les trois groupes terminologiques). Cependant, aucune hétérogénéité intergroupes n'a été observée (p 0,925), ce qui a favorisé la mise en commun de toutes les études en une seule mesure: 43 (95 CI: 39 46). Bien que les pondérations aient été calculées à l'aide du modèle à effets aléatoires, les statistiques d'hétérogénéité ont été calculées en recalculant l'estimation globale groupée en traitant les estimations groupées du sous groupe comme si elles étaient des estimations à effets fixes. Puisque toutes les proportions spécifiques à l'étude sont proches de 0,5, les métan (voir Figure 1 dans Arbyn et al., 17) et la métaprop (voir Figure 1) produisent des résultats similaires. Exemple 2 Nous avons extrait les données qui ont généré la figure 2 dans Dolman et al. 18 (voir figure 2). Étant donné que la proportion de femmes guéries est proche ou égale à 1 dans certaines études, nous avons permis la transformation de l'arcsine double Freeman Tukey. Dans le cas contraire, les études dont la proportion est estimée à 1 seraient exclues de l'analyse conduisant à une estimation groupée biaisée. Alternativement, l'utilisation de cc () garantit que ces études ne sont pas exclues. Cependant, l'estimation groupée n'est pas garantie pour être dans l'intervalle 0,1 qui est automatique lorsque l'option Freeman Tukey double arcsine (ftt) est activée. Nous avons utilisé les intervalles de confiance des scores pour les études individuelles. Métaprop nbcured nbtreated, aléatoire par (région) ftt cimethod (score) label (nomvar étude) graphregion (couleur (blanc)) plotregion (couleur (blanc)) xlab (0.5,0.6, .7,0.8, 0.9, 1) 0.5.0.6, .7,0.8, 0.9, 1) force xtitle (Proportion, taille (2)) nowt stats olineopt (lcolor (noir) lpattern (shortdash)) diamopt (lcolor (noir)) boxopt (msymbol (S) La figure 3 montre les proportions propres à l'étude avec 95 intervalles de confiance, les estimations régionales et globales avec 95 intervalles de confiance de Wald, I 2 et le test de signification des estimations globales regroupées. Contrairement à la figure 2 (affichant la sortie graphique générée avec metan), tous les intervalles de confiance ont des valeurs admissibles. Estimations proportionnelles au traitement de la coagulation froide pour la maladie CIN1, selon la région du monde analysée par métaprop. Exemple 3 Nous avons extrait les données qui ont généré la figure 2 dans Dolmanet al. 18 (voir figure 2). Nous adaptons le modèle logistique normal des effets aléatoires aux données. Avec ces modèles, on ne s'inquiète pas des études avec des taux de guérison proches de ou à 1 dans certaines études puisque nous utilisons la méthode exacte. Les intervalles de confiance pour les études individuelles sont également calculés avec la méthode exacte. Nous avons utilisé la commande mise à jour metapropone qui requiert que Stata 13 corresponde au modèle linéaire mixte généralisé (GLMM). (Nom de l'auteur, année de l'année) trio (année auteur) xlab (.1, .2, .3, .4, .5, .6, .7, .8 ,. 9,1) xline (0, lcolor (noir)) ti (Positivité de p16 immunomarquage, taille (4) couleur (bleu)) subti (Cytologie HSIL, taille (4) couleur (bleu)) xtitle (Proportion, ) () () () Text (100) text (100) text (100) Le tableau 3 présente les proportions spécifiques de l'étude avec 95 intervalles de confiance exacts et estimations globales regroupées avec 95 intervalles de confiance de Wald avec transformation logit et transformation de dos, statistique de C hi 2 du test du rapport de vraisemblance (LR) comparant le modèle d'effets aléatoires et fixes, la variance estimée entre les études et le test de Si la proportion estimée est égale à zéro. La valeur P pour le LR est de 0,022 indiquant une présence d'hétérogénéité significative. À partir de la commande précédente, la statistique Q est analogue à la statistique LR. Contrairement à la figure 2 (affichant la sortie graphique générée avec metan), tous les intervalles de confiance ont des valeurs admissibles. La moyenne pondérée estimée et les intervalles correspondants de 95 sont semblables à ceux obtenus précédemment (voir la figure 2) calculés comme une moyenne pondérée après la transformation d'arcsine. Cependant, la variance estimative entre études est plus grande (0,4907) que l'estimation de la variance de Dersimonien et de Laird obtenue à partir de la commande précédente (0,0409) comme prévu 9. Méta analyse de la proportion de présence de femmes guéries de la maladie CIN1 avec coagulation froide) Test LR: RE vs FE Modèle chi 2 4,04 (d. f. 1) p 0,022. Estimation de la variance entre études Tau 2 0,4907. Essai de ES 0. z 45,56 p 0,000. Sortie générée par la procédure Stata metapropone. Discussion Nous avons présenté des procédures pour effectuer une méta analyse des proportions dans Stata. Nous avons adapté et fait des additions à la commande metan pour fournir des procédures qui sont spécifiques pour les données binomiales où l'utilisateur spécifie n et N indiquant le nombre d'individus avec la caractéristique d'intérêt et le nombre total d'individus. Avec métaprop. Il est possible d'effectuer un test d'hétérogénéité entre les groupes lorsque l'analyse de sous groupe est souhaitée et le modèle d'effets aléatoires a été utilisé pour calculer l'estimation groupée. Dans metan, un test de comparaison intergroupes n'est produit que lorsque le modèle d'effets fixes est utilisé dans une méta analyse de sous groupe. Lorsque la proportion estimée est égale à 01, l'estimation de l'erreur type est nulle et, par conséquent, les intervalles de confiance de Wald ne peuvent pas être calculés. Les études avec une erreur type zéro sont souvent exclues car le poids attribué à ces études est infini. L'exclusion de ces études pourrait conduire à des résultats biaisés et, souvent, les utilisateurs calculent l'erreur type de manière ponctuelle. La correction de continuité activée par l'option cc () évite l'exclusion des études avec une prévalence de 0 ou 100. Bien que cela assure que les études sont retenues, les intervalles de confiance pour l'estimation groupée peuvent donner des valeurs inadmissibles. De plus, l'utilisation des intervalles de confiance de Wald pour les études individuelles lorsque la proportion estimée est proche de zéro donne souvent des valeurs inadmissibles. C'est parce que les intervalles de confiance Wald sont toujours symétriques autour d'une estimation. Contrairement au Wald, les intervalles de confiance exacts ou de score peuvent être asymétriques, surtout près des valeurs extrêmes. En calculant les intervalles de confiance exacts ou de score pour les études individuelles, nous sommes garantis de valeurs admissibles. Alors que la confiance exacte est considérée comme l'étalon or, nous recommandons l'utilisation d'intervalles de confiance de score parce que la couverture est proche du niveau nominal, alors que la couverture est toujours supérieure au niveau nominal pour la méthode exacte. En utilisant la transformation d'arcsine double de Freeman Tukey, toutes les études sont retenues, de plus, nous sommes garantis d'avoir des intervalles de confiance admissibles pour chaque étude individuelle ainsi que pour la proportion groupée. Bien que la distribution de la statistique d'arcsine double de Freeman Tukey soit plus normale pour les données clairsemées, la procédure se décompose avec des données extrêmement clairsemées et devrait donc être utilisée avec prudence 21. Dans la mesure du possible, l'utilisation de méthodes exactes est plus recommandée pour les données binomiales. Comme la taille de l'échantillon augmente et lorsque les proportions ne sont pas extrêmes, les méthodes reposant sur des données transformées et des méthodes exactes donnent des résultats similaires à des méthodes approximatives. Conclusion metaprop permet aux épidémiologistes de rassembler les proportions dans Stata, en évitant les problèmes rencontrés avec metan. Métaprop permet d'inclure des études avec des proportions égales à zéro ou 100 pour cent, et évite les intervalles de confiance dépassant la plage de 0 à 1. Le modèle d'effets aléatoires logistiques normaux amène les utilisateurs à se rapprocher de l'utilisation des méthodes exactes recommandées pour les données binomiales. Déclarations Remerciements Un soutien financier a été apporté: (1) au 7e programme cadre de la DG Recherche de la Commission européenne par l'intermédiaire du réseau COHEAHR (subvention 603019, coordonnée par la Vrije Universiteit Amsterdam, Pays Bas) et le projet HPV AHEAD HEALTH 2011 282562, coordonné par le CIRC, Lyon, France) (3) L'Institut Scientifique de Santé Publique (Bruxelles, par le biais du projet OPSADAC). Les auteurs ont présenté les fichiers pour les images ci dessous. Intérêts concurrents Les auteurs déclarent ne pas avoir d'intérêts concurrents. Contribution des auteurs VN a écrit le programme de métaprop dans Stata, a analysé les données et a rédigé le manuscrit. MA a conceptualisé et initié le projet et a édité le manuscrit. MA a édité le manuscrit. Tous les auteurs ont examiné et approuvé le manuscrit final. Authors Affiliations Unité de Cancer Epidémiologie, Institut Scientifique de Santé Publique Centre de Statistiques, Université de Hasselt Références Agresti A, Coull BA: Approximative est meilleure que l'exacte pour l'estimation d'intervalle de proportions binomiales. Am Stat. 1998, 52 (2): 119 126. Google Scholar Breslow NE, Clayton DG: Inférence approximative dans les modèles linéaires mixtes généralisés. J Am Stat Assoc. 1993, 88: 9 25. Google Scholar Miller JJ: L'inverse de la transformation Freeman Tukey double arcsine. Am Stat. T: La distribution binomiale de la méta analyse a été préférée au modèle de variabilité à l'intérieur de l'étude. J Clin Epidemiol. 2008, 61: 41 51. 10.1016j. jclinepi.2007.03.016. Voir l'article PubMed Google Scholar Molenberghs G, Verbeke G, Iddib S, Demtrio CGB: Un modèle combiné de bêta et d'effets aléatoires pour les données binaire et binomiale répétées et dispersées. J Multivar Anal. 2012, 111: 94 109. Voir l'article Google Scholar DerSimonian R, Laird N: Méta analyse dans les essais cliniques. Control Clin Essais. 1986, 7: 177 188. 10.10160197 2456 (86) 90046 2. Engel E, Keen A: Une approche simple pour l'analyse de modèles linéaires mixtes généralisés. Stat Neerl. 1994, 48: 1 22. 10.1111j.1467 9574.1994.tb01428.x. Voir l'article Google Scholar Molenberghs G, Verbeke G, Demtrio CGB, Vieira AMC: Une famille de modèles linéaires généralisés pour des mesures répétées avec des effets aléatoires normaux et conjugués. Stat Sci. 2010, 3: 325 347. Voir l'article Google Scholar Jackson D, Bowden J, Baker R: Comment la procédure Dersimonian et Laird pour la méta analyse des effets aléatoires comparer avec son plus efficace, mais plus difficile de calculer homologues. J Stat Inférence du plan. 2010, 140: 961 970. 10.1016j. jspi.2009.09.017. Voir l'article Google Scholar Harris R, Bradburn M, Deeks J, Harbord R, Altman D, Sterne J: metan: méta analyse des effets fixes et des effets aléatoires. Stata J. 2008, 8 (1): 3 28. Google Scholar Boîte GEP, Hunter JS, Hunter WG: Statistiques pour les expérimentateurs. 1978, Hoboken (NJ), Etats Unis: J Wiley amp Sons Inc, série Wiley dans la probabilité et les statistiques Google Freeman MF, Tukey JW: Transformations liées à l'angulaire et à la racine carrée. Ann Math Stats. 1950, 21 (4): 607 611. 10.1214aoms1177729756. Voir l'article Google Scholar Clopper CJ, Pearson ES: L'utilisation de la confiance ou des limites fiduciales illustrée dans le cas du binôme. Biometrika. 1934, 26 (4): 404 413. 10.1093biomet26.4.404. Voir l'article Google Académie Brown LD, Cai TT, DasGupta A: Estimation d'intervalle pour une proportion binomiale. Stat Sci. 2001, 16: 404 413. Google Scholar Newcombe RG: Intervalles de confiance bilatéraux pour la seule proportion: comparaison de sept méthodes. Stat Med. 1998, 17: 857 872. 10.1002 (SICI) 1097 0258 (19980430) 17: 8lt857 :: AID SIM777gt3.0.CO2 E. Voir l'article PubMed Google Scholar Wilson EB: Inférence probable, la loi de la succession, et l'inférence statistique. J Am Stat Assoc. 1927, 22 (158): 209 à 212. 10.108001621459.1927.10502953. L'analyse des femmes avec une cytologie cervicale équivoque ou de faible qualité donne lieu à une méta analyse du taux de positivité du test hpv. J Cell Mol Med. 2009, 13 (4): 648 à 659. 10.1111j.1582 4934.2008.00631.x. R: Méta analyse de l'efficacité de la coagulation froide comme méthode de traitement de la néoplasie intra épithéliale cervicale: une revue systématique. BJOG. 2014, 121: 929 942. 10.11111471 0528.12655. J: Preuves concernant le dépistage du virus du papillome humain dans la prévention secondaire du cancer du col de l 'utérus. Vaccin. 2012, 30 (supplément 5): F88 F99. Le test du papillomavirus humain versus la cytologie répétée pour le triage de petites lésions cervicales cytologiques. Cochrane Database Syst Rev. 2013, 3 (CD008054): 1 201. Google Scholar Westfall PH, Young SS: Essais multiples basés sur le rééchantillonnage: exemples et méthodes pour l'ajustement de la valeur P. 1993, Hoboken (NJ), Etats Unis: John Wiley et amp Sons Google Scholar Nyaga et al. Cet article est publié sous licence de BioMed Central Ltd. Cet article est un article d'accès libre distribué sous les termes de la licence Creative Commons Attribution License (creativecommons. orglicensesby4.0), qui permet l'utilisation, la distribution et la reproduction sans restriction Dans n'importe quel support, à condition que l'œuvre originale soit correctement créditée. La divulgation de la dédicace de la dédicace de domaine public de Creative Commons (creativecommons. orgpublicdomainzero1.0) s'applique aux données mises à disposition dans cet article, sauf indication contraire. Stata: Analyse de données et logiciel statistique Jonathan AC Sterne, Université de Bristol Ross J. Harris, Université de Bristol Roger M. Harbord, Université de Bristol Thomas J. Steichen, RJRT Stata n'a pas de commande de méta analyse. Les utilisateurs de Stata, cependant, ont développé une excellente suite de commandes pour effectuer des méta analyses. En 2016, Stata a publié la méta analyse dans Stata: Une collection mise à jour du journal de Stata, deuxième édition. Qui a rassemblé tous les articles de Stata Journal sur la méta analyse. Ce livre est disponible à l'achat chez stata pressbooksmeta analysis in stata. Les commandes de méta analyse suivantes sont toutes décrites dans Meta Analysis dans Stata: Une collection mise à jour du Stata Journal, deuxième édition. metan is the main Stata meta analysis command. Its latest version allows the user to input the cell frequencies from the 2 times 2 table for each study (for binary outcomes), the mean and standard deviation in each group (for numerical outcomes), or the effect estimate and standard error from each study. It provides a comprehensive range of methods for meta analysis, including inverse variancendashweighted meta analysis, and creates new variables containing the treatment effect estimate and its standard error for each study. These variables can then be used as input to other Stata meta analysis commands. Meta analyses may be conducted in subgroups by using the by() option. All the meta analysis calculations available in metan are based on standard methods, an overview of which may be found in chapter 15 of Deeks, Altman, and Bradburn (2001). The version of the metan command that used Stata 7 graphics has been renamed metan7 and is downloaded as part of the metan package currently available on the SSC archive. The most recent help file for metan provides several clickable examples of using the command. labbe draws a LrsquoAbbe plot for event data (proportions of successes in the two groups). metaan performs meta analysis on effect estimates and standard errors. Included are profile likelihood and permutation estimation, two algorithms not available in metan . 4. metacum metacum performs cumulative meta analyses and graphs the results. metap combines p values by using Fisherrsquos method, Edgingtonrsquos additive method, or Edgingtonrsquos normal curve method. It was released in 1999 as a version 6 command (no graphics) and was last updated in 2000. It requires the user to input a p value for each study. 6. metareg metareg does meta regression. It was first released in 1998 and has been updated to take account of improvements in Stata estimation facilities and recent methodological developments. It requires the user to input the treatment effect estimate and its standard error for each study. 7. metafunnel metafunnel plots funnel plots. It was released in 2004 and uses Stata 8 graphics. It requires the user to input the treatment effect estimate and its standard error for each study. 8. confunnel confunnel plots contour enhanced funnel plots. The command has been designed to be flexible, allowing the user to add extra features to the funnel plot. 9. metabias metabias provides statistical tests for funnel plot asymmetry. It was first released in 1997, but it has been updated to provide recently proposed tests that maintain better control of the false positive rate than those available in the original command. 10. metatrim metatrim implements the ldquotrim and fillrdquo method to adjust for publication bias in funnel plots. It requires the user to input the treatment effect estimate and its standard error for each study. 11. extfunnel extfunnel implements a new range of overlay augmentations to the funnel plot to assess the impact of a new study on an existing meta analysis. 12. metandi and metandiplot metandi facilitates the fitting of hierarchical logistic regression models for meta analysis of diagnostic test accuracy studies. metandiplot produces a graph of the model fit by metandi . which must be the last estimation class command executed. 13. mvmeta and mvmetamake mvmeta performs maximum likelihood, restricted maximum likelihood, or method of moments estimation of random effects multivariate meta analysis models. mvmetamake facilitates the preparation of summary datasets from more detailed data. 14. ipdforest ipdforest is a postestimation command that uses the stored estimates of an xtmixed or xtmelogit command for multilevel linear or logistic regression, respectively. 15. ipdmetan ipdmetan performs two stage individual participant data meta analysis using the inverse variance method. 16. indirect indirect performs pairwise indirect treatment comparisons. 17. network setup network setup imports data from a set of studies reporting count data (events, total number) or quantitative data (mean, standard deviation, total number) for two or more treatments. 18. network import network import imports a dataset already formatted for network meta analysis. 19. network table network table tabulates network meta analysis data. 20. network pattern network pattern shows which treatments are used in which studies. 21. network map network map draws a map of a network that is, it shows which treatments are directly compared against which other treatments and roughly how much information is available for each treatment and for each treatment comparison. 22. network convert network convert converts between the three formats described in the help file for network . 23. network query network query displays the current network settings. 24. network unset network unset deletes the current network settings. 25. network meta network meta defines a model to be fit: either the consistency model or the design by treatment interaction inconsistency model. 26. network rank network rank ranks treatments after a network meta analysis has been fit. 27. network sidesplit network sidesplit fits the node splitting model of Dias et al. (2010). 28. network forest network forest draws a forest plot of network meta analysis data. 29. networkplot networkplot plots a network of interventions using nodes and edges. 30. netweight netweight calculates all direct pairwise summary effect sizes with their variances, creates the design matrix, and estimates the percentage contribution of each direct comparison to the network summary estimates and in the entire network. 31. ifplot ifplot identifies all triangular and quadratic loops in a network of interventions and estimates the respective inconsistency factors and their uncertainties. 32. netfunnel netfunnel plots a comparison adjusted funnel plot for assessing small study effects within a network of interventions. 33. intervalplot intervalplot plots the estimated effect sizes and their uncertainties for all pairwise comparisons in a network meta analysis. 34. netleague netleague creates a league table showing in the off diagonal cells the relative treatment effects for all possible pairwise comparisons estimated in a network meta analysis. sucra gives the surface under the cumulative ranking curves percentages and mean ranks, and produces rankograms (line plots of the probabilities versus ranks) and cumulative ranking plots (line plots of the cumulative probabilities versus ranks) for all treatments in a network of interventions. 36. mdsrank mdsrank creates the squared matrix containing the pairwise relative effect sizes and plots the resulting values of the unique dimension for each treatment. 37. clusterank clusterank performs hierarchical cluster analysis to group the competing treatments into meaningful groups. glst calculates a log linear dosendashresponse regression model using generalized least squares for trend estimation of single or multiple summarized dosendashresponse epidemiological studies. Output from this command may be useful in deriving summary effects and their standard errors for inclusion in meta analyses of such studies. 39. metamiss metamiss performs meta analysis with binary outcomes when some or all studies have missing data. 40. sem and gsem Describes how to fit fixed and random effects meta analysis models using the sem and gsem commands, introduced in Stata 12 and 13 respectively, for structural equation modeling. 41. metacumbounds metacumbounds provides z values, p values, and Lan DeMets bounds obtained from fixed or random effects meta analysis. It plots the boundaries and z values through a process. 42. metasim metasim simulates a specified number of new studies based on the estimates obtained from a preexisting meta analysis. 43. metapow metapow implements an approach to estimating the power of a newly simulated study generated by using the program metasim . 44. metapowplot metapowplot estimates the power of an updated meta analysis including a new study and plots each value against a range of sample sizes. The following commands are documented in the Appendix: 45. metacurve metacurve models a response as a function of a continuous covariate, optionally adjusting for other variable(s) specified by adjust() . 46. metannt metannt is intended to aid interpretation of meta analyses of binary data by presenting intervention effect sizes in absolute terms, as the number needed to treat (NNT) and the number of events avoided (or added) per 1,000. The user inputs design parameters, and metannt uses the metan command to calculate the required statistics. This command is available as part of the metan package. 47. metaninf metaninf is a port of the metainf command to use metan as its analysis engine rather than meta . It was released in 2001 as a version 6 command using version 6 graphics and was last updated in 2004. It requires the user to provide input in the form needed by metan . midas provides statistical and graphical routines for undertaking meta analysis of diagnostic test performance in Stata. 49. metalr metalr graphs positive and negative likelihood ratios in diagnostic tests. It can do stratified meta analysis of individual estimates. The user must provide the effect estimates (log positive likelihood ratio and log negative likelihood ratio) and their standard errors. Commands meta and metareg are used for internal calculations. This is a version 8 command released in 2004. 50. metaparm metaparm performs meta analyses and calculates confidence intervals and p values for differences or ratios between parameters for different subpopulations for data stored in the parmest format. 51. metaeff metaeff is a pre processing command for meta analysis and a companion to metaan which calculates effect sizes and their standard errors. Note: There may be commands that appeared in the Stata Journal after the publication of Meta Analysis in Stata: An Updated Collection from the Stata Journal, Second Edition . For a complete list of meta analysis commands, type search meta in Stata. Deeks, J. J. D. G. Altman, and M. J. Bradburn. 2001. Statistical methods for examining heterogeneity and combining results from several studies in meta analysis. In Systematic Reviews in Health Care: Meta Analysis in Context, 2nd Edition . ed. M. Egger, G. Davey Smith, and D. G. Altman. London: BMJ. Dias, S. N. J. Welton, D. M. Caldwell, and A. E. Ades. 2010. Checking consistency in mixed treatment comparison meta analysis. Statistics in Medicine 29: 932ndash944.Stata: Data Analysis and Statistical Software Jonathan A. C. Sterne, University of Bristol Ross J. Harris, University of Bristol Roger M. Harbord, University of Bristol Thomas J. Steichen, RJRT Stata does not have a meta analysis command. Stata users, however, have developed an excellent suite of commands for performing meta analyses. In 2016, Stata published Meta Analysis in Stata: An Updated Collection from the Stata Journal, Second Edition . which brought together all the Stata Journal articles about meta analysis. This book is available for purchase at stata pressbooksmeta analysis in stata. The following meta analysis commands are all described in Meta Analysis in Stata: An Updated Collection from the Stata Journal, Second Edition . metan is the main Stata meta analysis command. Its latest version allows the user to input the cell frequencies from the 2 times 2 table for each study (for binary outcomes), the mean and standard deviation in each group (for numerical outcomes), or the effect estimate and standard error from each study. It provides a comprehensive range of methods for meta analysis, including inverse variancendashweighted meta analysis, and creates new variables containing the treatment effect estimate and its standard error for each study. These variables can then be used as input to other Stata meta analysis commands. Meta analyses may be conducted in subgroups by using the by() option. All the meta analysis calculations available in metan are based on standard methods, an overview of which may be found in chapter 15 of Deeks, Altman, and Bradburn (2001). The version of the metan command that used Stata 7 graphics has been renamed metan7 and is downloaded as part of the metan package currently available on the SSC archive. The most recent help file for metan provides several clickable examples of using the command. labbe draws a LrsquoAbbe plot for event data (proportions of successes in the two groups). metaan performs meta analysis on effect estimates and standard errors. Included are profile likelihood and permutation estimation, two algorithms not available in metan . 4. metacum metacum performs cumulative meta analyses and graphs the results. metap combines p values by using Fisherrsquos method, Edgingtonrsquos additive method, or Edgingtonrsquos normal curve method. It was released in 1999 as a version 6 command (no graphics) and was last updated in 2000. It requires the user to input a p value for each study. 6. metareg metareg does meta regression. It was first released in 1998 and has been updated to take account of improvements in Stata estimation facilities and recent methodological developments. It requires the user to input the treatment effect estimate and its standard error for each study. 7. metafunnel metafunnel plots funnel plots. It was released in 2004 and uses Stata 8 graphics. It requires the user to input the treatment effect estimate and its standard error for each study. 8. confunnel confunnel plots contour enhanced funnel plots. The command has been designed to be flexible, allowing the user to add extra features to the funnel plot. 9. metabias metabias provides statistical tests for funnel plot asymmetry. It was first released in 1997, but it has been updated to provide recently proposed tests that maintain better control of the false positive rate than those available in the original command. 10. metatrim metatrim implements the ldquotrim and fillrdquo method to adjust for publication bias in funnel plots. It requires the user to input the treatment effect estimate and its standard error for each study. 11. extfunnel extfunnel implements a new range of overlay augmentations to the funnel plot to assess the impact of a new study on an existing meta analysis. 12. metandi and metandiplot metandi facilitates the fitting of hierarchical logistic regression models for meta analysis of diagnostic test accuracy studies. metandiplot produces a graph of the model fit by metandi . which must be the last estimation class command executed. 13. mvmeta and mvmetamake mvmeta performs maximum likelihood, restricted maximum likelihood, or method of moments estimation of random effects multivariate meta analysis models. mvmetamake facilitates the preparation of summary datasets from more detailed data. 14. ipdforest ipdforest is a postestimation command that uses the stored estimates of an xtmixed or xtmelogit command for multilevel linear or logistic regression, respectively. 15. ipdmetan ipdmetan performs two stage individual participant data meta analysis using the inverse variance method. 16. indirect indirect performs pairwise indirect treatment comparisons. 17. network setup network setup imports data from a set of studies reporting count data (events, total number) or quantitative data (mean, standard deviation, total number) for two or more treatments. 18. network import network import imports a dataset already formatted for network meta analysis. 19. network table network table tabulates network meta analysis data. 20. network pattern network pattern shows which treatments are used in which studies. 21. network map network map draws a map of a network that is, it shows which treatments are directly compared against which other treatments and roughly how much information is available for each treatment and for each treatment comparison. 22. network convert network convert converts between the three formats described in the help file for network . 23. network query network query displays the current network settings. 24. network unset network unset deletes the current network settings. 25. network meta network meta defines a model to be fit: either the consistency model or the design by treatment interaction inconsistency model. 26. network rank network rank ranks treatments after a network meta analysis has been fit. 27. network sidesplit network sidesplit fits the node splitting model of Dias et al. (2010). 28. network forest network forest draws a forest plot of network meta analysis data. 29. networkplot networkplot plots a network of interventions using nodes and edges. 30. netweight netweight calculates all direct pairwise summary effect sizes with their variances, creates the design matrix, and estimates the percentage contribution of each direct comparison to the network summary estimates and in the entire network. 31. ifplot ifplot identifies all triangular and quadratic loops in a network of interventions and estimates the respective inconsistency factors and their uncertainties. 32. netfunnel netfunnel plots a comparison adjusted funnel plot for assessing small study effects within a network of interventions. 33. intervalplot intervalplot plots the estimated effect sizes and their uncertainties for all pairwise comparisons in a network meta analysis. 34. netleague netleague creates a league table showing in the off diagonal cells the relative treatment effects for all possible pairwise comparisons estimated in a network meta analysis. sucra gives the surface under the cumulative ranking curves percentages and mean ranks, and produces rankograms (line plots of the probabilities versus ranks) and cumulative ranking plots (line plots of the cumulative probabilities versus ranks) for all treatments in a network of interventions. 36. mdsrank mdsrank creates the squared matrix containing the pairwise relative effect sizes and plots the resulting values of the unique dimension for each treatment. 37. clusterank clusterank performs hierarchical cluster analysis to group the competing treatments into meaningful groups. glst calculates a log linear dosendashresponse regression model using generalized least squares for trend estimation of single or multiple summarized dosendashresponse epidemiological studies. Output from this command may be useful in deriving summary effects and their standard errors for inclusion in meta analyses of such studies. 39. metamiss metamiss performs meta analysis with binary outcomes when some or all studies have missing data. 40. sem and gsem Describes how to fit fixed and random effects meta analysis models using the sem and gsem commands, introduced in Stata 12 and 13 respectively, for structural equation modeling. 41. metacumbounds metacumbounds provides z values, p values, and Lan DeMets bounds obtained from fixed or random effects meta analysis. It plots the boundaries and z values through a process. 42. metasim metasim simulates a specified number of new studies based on the estimates obtained from a preexisting meta analysis. 43. metapow metapow implements an approach to estimating the power of a newly simulated study generated by using the program metasim . 44. metapowplot metapowplot estimates the power of an updated meta analysis including a new study and plots each value against a range of sample sizes. The following commands are documented in the Appendix: 45. metacurve metacurve models a response as a function of a continuous covariate, optionally adjusting for other variable(s) specified by adjust() . 46. metannt metannt is intended to aid interpretation of meta analyses of binary data by presenting intervention effect sizes in absolute terms, as the number needed to treat (NNT) and the number of events avoided (or added) per 1,000. The user inputs design parameters, and metannt uses the metan command to calculate the required statistics. This command is available as part of the metan package. 47. metaninf metaninf is a port of the metainf command to use metan as its analysis engine rather than meta . It was released in 2001 as a version 6 command using version 6 graphics and was last updated in 2004. It requires the user to provide input in the form needed by metan . midas provides statistical and graphical routines for undertaking meta analysis of diagnostic test performance in Stata. 49. metalr metalr graphs positive and negative likelihood ratios in diagnostic tests. It can do stratified meta analysis of individual estimates. The user must provide the effect estimates (log positive likelihood ratio and log negative likelihood ratio) and their standard errors. Commands meta and metareg are used for internal calculations. This is a version 8 command released in 2004. 50. metaparm metaparm performs meta analyses and calculates confidence intervals and p values for differences or ratios between parameters for different subpopulations for data stored in the parmest format. 51. metaeff metaeff is a pre processing command for meta analysis and a companion to metaan which calculates effect sizes and their standard errors. Note: There may be commands that appeared in the Stata Journal after the publication of Meta Analysis in Stata: An Updated Collection from the Stata Journal, Second Edition . For a complete list of meta analysis commands, type search meta in Stata. Deeks, J. J. D. G. Altman, and M. J. Bradburn. 2001. Statistical methods for examining heterogeneity and combining results from several studies in meta analysis. In Systematic Reviews in Health Care: Meta Analysis in Context, 2nd Edition . ed. M. Egger, G. Davey Smith, and D. G. Altman. London: BMJ. Dias, S. N. J. Welton, D. M. Caldwell, and A. E. Ades. 2010. Checking consistency in mixed treatment comparison meta analysis. Statistics in Medicine 29: 932ndash944.Stata Features Financial Econometrics Using Stata by Simona Boffelli and Giovanni Urga provides an excellent introduction to time series analysis and how to do it in Stata for financial. The Middle East and North Africa (MENA) region suffers from both, data availability and data quality. Any effort to collect, clean and present data on the region is a wel. The 4th Poland Stata Users Group Meeting takes place on Monday, 17 October 2016 at SGH Warsaw School of Economics, Warsaw, Poland. The goal of the Stata Users Group Meeti. Rain Data: Using Stata to automate the creation and labelling of each variable through looping Often in data work one finds that the same work needs to be done again and. The 22nd London Stata Users Group Meeting takes place on Thursday, 8 and Friday, 9 September 2016 at Cass Business School, London. The London Stata Users Group meeting. Latest Stata Courses This 2 day course provides a review of and a practical guide to several major econometric methodologies frequently used to model the stylised facts of the financial time series via ARMA models, univariate and multivariate GARCH models, risk management analysis and contagion. Demonstration of the alternative techniques will be illustrated using Stata. Practical sessions within the course involve interest rate data, asset prices and forex time series. The course is delivered by Prof. Giovanni Urga, an author of Financial Econometrics using Stata Boffelli, S and Urga, G (2016), Stata Press: TX. Linear models define an outcome from a set of predictors of interest using linear assumptions. Regression models being a subset of linear models, are one of, if not the most fundamental tools a statistician can have. This course covers regression analysis, least squares, inference using regression models and robust estimation methods. This course will provide you with advanced tools for data management and full automation of your workflow using Stata. This 2 day course starts by reviewing the main data management commands available in Stata and goes on by illustrating how to combine them with Stata programming constructs and you will learn how to code using simple Stata programs. This course will provide participants with the essential tools, both theoretical and applied, for a proper use of modern micro econometric methods for policy evaluation and causal counterfactual modelling under the assumption of selection on observables. The second of two courses designed as an introduction to Bayesian methods for empirical analysis. We will start with a number of theoretical issues including exchangeability, prior posterior analysis, model comparison and hypothesis testing, and models for missing data. We will also examine the fundamental problem of prior elicitation. Need a quote
No comments:
Post a Comment