Rubin (1974) ランダム化および非ランダム化データを用いた因果効果の推定

潜在的結果の枠組み(Potential Outcome Framework)を元祖ともされる論文(元々のアイディアはNeyman 1923と言われている).反事実的条件に基づく潜在的結果の枠組みは,この論文を契機に急速に広まる.そんな有名な論文だけに,原著に目を通した人は少ないではないだろうか.ということで息抜きに読んでみたのが,couterfactualとかpotntial outcomeという用語は一度も使われていないことに気づいた.Rubinはこれらの用語をいつから使い始めたのだろうか.この点については,既にレビューが存在するのだと思う(知らんけど).ちなみにこの論文も潜在的結果に直接触れているというよりは,注意深く読むと潜在的結果のことに触れているのかな?という印象をもった.

Rubin, D. B. (1974). Estimating causal effects of treatments in randomized and nonrandomized studies. Journal of Educational Psychology, 66(5), 688–701. 

 

Blackwell and Glynn (2018) パネルデータを用いた因果推論

パネル(TSCS)データでstructural nested mean modelsやmarginal structural modelsをもっと使おうよという論文.パネルデータを用いて因果推論をする場合には,時間不変の観察されない要因を取り除きたいのか,原因と結果にタイムラグがあるようなダイナミックな因果関係に関心があるのか,いずれが重要なのかを見定める必要がある.前者ならFE,後者ならSNMMやMSMといったように,用いる方法が異なってくるからだ.

BLACKWELL, M., & GLYNN, A. (2018). How to Make Causal Inferences with Time-Series Cross-Sectional Data under Selection on Observables. American Political Science Review, 112(4), 1067-1082.

 

Zhou and Wodtke (2019) RWRによるControlled Direct Effectsの推定

Controlled Direct Effectsの推定にはsequentual g-estimationが多用されてきた(Acharya et al. 2016が典型).ここでは,残差を使ったRegression-with-Residuals(RWR)を提案している.RWRの良いところは,実装が簡単な点(とはいえsequentual gもが面倒なわけではない),mediatorとintermediate confounderのinteratcionが考慮できる点.

Zhou, X., & Wodtke, G. (2019). A Regression-with-Residuals Method for Estimating Controlled Direct Effects. Political Analysis, 27(3), 360-369.

 

Athey and Imbens (2019) エコノミストが知っておくべき機械学習の方法

Annual Reviewでのレビュー.機械学習の基礎が解説されており,経済学でどのように応用されているかについても少しだけ触れている.

Athey, Susan and Imbens, Guido W.  2019. "Machine Learning Methods That Economists Should Know About" Annual Review of Economics 11(1): 685-725.

経済学で機械学習の導入がなぜ遅れたかという問いに触れている.

Why has the acceptance of ML methods been so much slower in economics compared to the broader statistics community? A large part of it may be the culture as Breiman refers to it. Economics journals emphasize the use of methods with formal properties of a type that many of the ML methods do not naturally deliver. This includes large sample properties of estimators and tests, including consistency, normality, and efficiency. In contrast, the focus in the ML literature is often on working properties of algorithms in specific settings, with the formal results being of a different type, e.g., guarantees of error rates. There are typically fewer theoretical results of the type traditionally reported in econometrics papers, although recently there have been some major advances in this area (Wager & Athey 2017, Farrell et al. 2018). There are no formal results that show that, for supervised learning problems, deep learning or neural net methods are uniformly superior to regression trees or random forests, and it appears unlikely that general results for such comparisons will soon be available, if ever. 

 

Hubbard et al. (2010) 混合効果モデルとGEEモデルの違い

個体があるグループにネストされている場合に社会学では混合効果(マルチレベル)モデルを用いることが多いが,疫学系の研究会にでているとGEEを用いることが多い気がする.本論文では,混合効果とGEEの違いを簡単に解説している.そもそも知りたい量が違うという点がハイライト.

Hubbard, Alan E., et al. “To GEE or Not to GEE: Comparing Population Average and Mixed Models for Estimating the Associations Between Neighborhood Risk Factors and Health.Epidemiology, vol. 21, no. 4, 2010, pp. 467–474.

アブスト

Two modeling approaches are commonly used to estimate the associations between neighborhood characteristics and individual-level health outcomes in multilevel studies (subjects within neighborhoods). Random effects models (or mixed models) use maximum likelihood estimation. Population average models typically use a generalized estimating equation (GEE) approach. These methods are used in place of basic regression approaches because the health of residents in the same neighborhood may be correlated, thus violating independence assumptions made by traditional regression procedures. This violation is particularly relevant to estimates of the variability of estimates. Though the literature appears to favor the mixed-model approach, little theoretical guidance has been offered to justify this choice. In this paper, we review the assumptions behind the estimates and inference provided by these 2 approaches. We propose a perspective that treats regression models for what they are in most circumstances: reasonable approximations of some true underlying relationship. We argue in general that mixed models involve unverifiable assumptions on the data-generating distribution, which lead to potentially misleading estimates and biased inference. We conclude that the estimation-equation approach of population average models provides a more useful approximation of the truth.

 

 

 

清水(2017) 統計的因果探索

先日読了したこちらの本についても簡単にメモ.何年か前の社会心理学会の方法論セミナーで話を聞いた際から気にはなっていた統計的因果探索ですが,何をやっているのかはよくわからないままでした.解説本も出たことだし,真面目に読んでみようということで読みました.

統計的因果探索 (機械学習プロフェッショナルシリーズ)

統計的因果探索 (機械学習プロフェッショナルシリーズ)

 

結論から言うと非常に勉強になった.特に本丸であるLiNGAM(Linear non-Gaussian Acyclic Model)の導入部分にあたる3章までがこれ以上ないくらいにわかりやすく,4章以降にスムースに接続できた.社会学で応用できそうなアイディアも浮かんだので収穫あり(ちなみに清水先生はSEMで有名な社会学者K. Bollenとの共著あり).現在はLiNGAMの仮定(線形性,非巡回性,非ガウス性)をどこまで緩められるかの研究,また観測変数の未観測共通原因がある場合の研究が盛んなよう.そこにスパース性が絡んでくるので面白そう.実装に関しては著者のHPにまとめられているように,公開されているのはMATLABやRが中心.ベイズの枠組みでも色々と検討されているそうなので,Stanによる実装も試してみたい.LiNGAMのアツさがわかる一冊.

因果ダイアグラム:結論の前に仮定をかこう

構造的因果モデルの勉強を少しずつはじめている関係で,edXにあがっているCausal Diagrams: Draw Your Assumptions Before Your Conclusionsという講義を受けてみました.講師はMiguel Hernánで他にもRobins,Pearl,VanderWeeleへのインタビューやショートレクチャーもあるように,なんとも豪華な顔ぶれ.9週でデザインされたコースのようだが,まとまった時間があれば数日で終わる内容だった.テクニカルな話はほとんどないので,真面目に勉強するならHernán and Robins (2018) Causal Inference を読んでねという流れ(AcknowledgmentsにTadayoshi Fushiki先生のお名前を発見).パールの肉声を初めて聞いたけどもう81歳なんですね.ちなみにシラバスは以下の通り.

Course Description

This course introduces causal diagrams as tools for researchers who study the effects of treatments, exposures, and policies. The course focuses on translating expert knowledge into a causal diagram, drawing causal diagrams under different assumptions, and using causal diagrams to identify common biases and guide data analysis. The first part of the course introduces the theory of causal diagrams and describe its applications to causal inference. The second part of the course presents a series of case studies that highlight the practical applications of causal diagrams to real-world questions from the health and social sciences.

Course Outline

Lesson 1: Causal Diagrams
Released on September 26, 2017

Lesson 2: Confounding
Released on October 3, 2017

Lesson 3: Selection Bias
Released on October 10, 2017

Lesson 4: Measurement Bias/ Putting it All Together
Released on October 17, 2017

Lesson 5: Time-varying Treatments
Released on October 24, 2017

Cases:
Released on October 31, 2017

The Birth Weight Paradox with Dr. Allen Wilcox
Measurement Bias in Memory Loss with Dr. Maria Glymour
Confounding in Mediation Analysis with Dr. Tyler VanderWeele
Genes as Instrumental Variables with Dr. Sonja Swanson

 

 

Grimmer et al. (PA 2017) アンサンブル法による因果効果の異質性の推定

 因果効果を推定するために多くのRCTが実施されているなか,部分母集団によって効果がどのように変化するのか(Heterogeneous Treatment Effects: HTE),また異なるトリートメントによって効果がどのように変化するのか(Effects of Heterogeneous Treatments: EHT)に関する研究が増えてきている.HTEやEHTについては様々な手法(Regression trees, BART, LASSO, KRLS等々)が提案されているが,最近は特に機械学習の手法を援用したものが多い印象である.本論文が提案していることは,これまでに提案されてきた各手法を使って手元のデータをCVで分析し,予測精度の観点(本論文ではRMSE)からパフォーマンスの良かった手法に大きなウェイトをかけてやり,各推定量の加重平均をアンサンブル推定量として採用するというものである.そのうえでHTEやEHTについて推定をする.

Grimmer, J., Messing, S., & Westwood, S. J. 2017. ``Estimating Heterogeneous Treatment Effects and the Effects of Heterogeneous Treatments with Ensemble Methods.'' Political Analysis 25(4): 1–22.

 Table 2において,4種のデータ生成過程でモンテカルロシミュレーションをおこないアンサンブル法が平均的にベストだと論じているが,データ生成過程によってはアンサンブル法よりパフォーマンスの良い手法もある.また平均的にもLASSOやBayesian GLMとさして変わらない.

 ちなみにHTEやEHTについて,単純にグループやトリートメントの条件付き平均因果効果を比較すれば良いのでは?という点については著者らがこのように議論している.

When there are a large number of observations in each condition and participants who share the same set of covariates, reliable estimation of ATEs, CATEs, MATEs, and MCATEs is straightforward. The random assignment of participants to treatments ensures that a difference in means across treatment arms will reliably estimate the ATE and a difference in means across arms among respondents with the same set of covariates provides an accurate estimate of CATEs and MCATEs. With a large number of participants, the differences computed with naïve differences in means will tend to reflect systematic differences (Gelman, Hill, and Yajima 2012). But for more heterogeneous treatments with a large number of conditions, or covariates that have few observations who share the exact same covariates, a simple difference in means will be a less reliable estimate of the effect of treatments. When the sample size is relatively small, naïve differences will be likely to reflect random variation in the sample, rather than systematic differences in the underlying methods because there will be few observations who share the exact same characteristics. This renders ineffective the usual method for estimating heterogeneous treatment effects: computing a difference in means for observations with the same covariate value. It also makes simple comparisons of different levels of high-dimensional treatments highly problematic.

Luo et al. (AJS 2016) コーディング条件に対するIEの感度

APCモデルにおけるコーディングとIntrinsic Estimator (IE)の感度を分析したペーパー.IEを提唱したYang et al. (SM 2004)やYang et al. (AJS 2008)に対するコメントという位置付けである.ちゃんと読んでいないが斜め読みでメモ.

Luo, L., Hodges, J., Winship, C., & Powers, D. 2016. ``The Sensitivity of the Intrinsic Estimator to Coding Schemes: Comment on Yang, Schulhofer-Wohl, Fu, and Land.'' American Journal of Sociology 122(3): 930–961.

APCモデルの関心は年齢,時代,世代の効果を推定することであるが, A=P-Cという線形従属の関係があるためそのままでは推定できない.Yangたちはこれまで使用されてきた伝統的な制約のかけ方とは異なる方法でIEを提唱した.現在は社会学のみならず疫学や犯罪学などでも広く使われている.

Intrinsic Estimator

  • 年齢,時代のグループ数を a, pとすると,コーホート*1数は a+p-1
  •  \bf Yが目的変数, \bf Xがデザイン行列, \bf bがパラメターのベクトル
  • APCは線形従属なので \bf Xがフルランクとならない
  • そこでヌルベクトル \bf X_0とすれば一つの解 \bf b_1を使って他の解を {\bf b_1}+r \bf B_0と表現できる
  • つまりIE ({\bf b_1}+r{\bf B_0})^T({\bf b_1}+r{\bf B_0})を最小化する rを代入した値

IEの言い分と批判

  • IEサイド:伝統的な制約を課したGLMよりも優れているどころか真のAPCパラメターを識別している
  • IE批判サイド:いやIEも制約を課した推定なんだけど...

APCモデルにおけるコーディング

  • 年齢 \times時代のコーホート表を考えると,様々なコーディングができてしまう
  • 線形コーディングやカテゴリカルコーディング等々(参照かエフェクトかゼロサムか等々)
  • APCはそもそも識別できないのでを無理やり制約をかけて解いているのでコーディングの違いによってはパラメターの推定値が真逆になることも

結論

  • コーディング方法が複数存在することもあってIEは無限の推定値をもつ
  • IEが真のAPCパラメターを識別しているというのは嘘

補足

  • IE批判は昔からありIEも一つの制約解であることは知られていたがコーディングでここまで大きく推定値が変化するとは
  • IEはリッジ回帰の一種とみることもできるがベイジアンコウホートも同様
  • ベイジアンコウホートについてはこの解説がわかりやすい
  • 一番わかりやすいのはFig.4で「ゼロサムコーディング」と「最初のグループを参照コーディング」ではsolution lineのうち最小となる点(ノルム)が変わる f:id:analyticalsociology:20171110140132p:plain

ちなみにIE関連の話はGelmanも少しだけ絡んでいて彼のブログにもそのことが触れてある.Gelmanも最初はYangたちの気持ちもわからんでもないという論調だったのだが最後には,

I’ll go with Luo/Hodges/Winship/Powers, who agree with Heckman/Robb and Fienberg/Mason before them.

と述べている. Luo/Hodges/Winship/Powersというのは本ペーパーの著者たちのこと.というわけでIEを使ったらすべて解決ではないということは自覚しておかなければならない(APCテキストをちゃんと読んだ人はわかっていたことだと思うけど).ちなみにこのコメントに対するIE側のリプライがこれだが未読.

*1:Cohortの訳については「コーホート」「コウホート」「コホート」などがあるが,どれを用いるかでなんとなく流派がわかってしまうという話はさておき.

Imai and Tingley(AJPS 2012) 混合分布モデルを用いた競合仮説の検証

社会科学ではある現象に対して複数の説明の仕方があることが多い.例えば競合する仮説が複数ある場合などが典型であり,そうした場合に混合分布モデル(Finite Mixture Model)が使えますというのを紹介した論文.さっとメモ.

Imai, K., & Tingley, D. (2012). A Statistical Method for Empirical Testing of Competing Theories. American Journal of Political Science, 56(1), 218–236. 

簡単にまとめると,混合分布モデルは,(1)競合する理論・仮説が想定する効果の推定,(2)競合する理論・仮説が妥当する場合の条件の推定をしようとしている.つまり,観察されたデータはどのモデルにどの程度整合的なのかを推定する.

セットアップ

  • ある現象を説明する M個の統計モデルがあるとする
  • モデル間でネストしているか,いないかはどちらでも良い
  • すべてのモデルについて特定している必要はない
  • 観察 iはモデル Z_i=1, 2, ..., Mから生成されているとする
  • どのモデルからデータが生成されているかわからないので, Z_iも同時に推定する

推定

わかること

  • 各モデルのパラメター推定値とモデル確率の推定値
  • 特定のモデルに整合的な観察 i
  • 特定のモデルの全体に占めるパフォーマンス

補足

  • 実装はflexmixMCMCpack
  • 競合する理論・仮説の統計モデルを f_m(y|x, \theta_m)とするとデータ生成過程は Y_i|X_i, Z_i \sim f_{Z_i}(Y_i|X_i, \theta_{Z_i}).ただし \theta_{Z_i} Z_iのパラメター
  • 観察が理論・仮説 mによって生成される確率は \pi_m(X_i, \psi_m) = Pr(Z_i=m|X_i)
  • 混合分布はどちらかといえば予測力を高める方法で因果効果の推定に向いているわけではない.ただしデザイン次第では因果推論もできる
  • 共変量が多いモデルが選ばれやすい
  • 変量効果モデルと違ってグループを事前に決める必要がない