清水(2017) 統計的因果探索

先日読了したこちらの本についても簡単にメモ.何年か前の社会心理学会の方法論セミナーで話を聞いた際から気にはなっていた統計的因果探索ですが,何をやっているのかはよくわからないままでした.解説本も出たことだし,真面目に読んでみようということで読みました.

統計的因果探索 (機械学習プロフェッショナルシリーズ)

統計的因果探索 (機械学習プロフェッショナルシリーズ)

 

結論から言うと非常に勉強になった.特に本丸であるLiNGAM(Linear non-Gaussian Acyclic Model)の導入部分にあたる3章までがこれ以上ないくらいにわかりやすく,4章以降にスムースに接続できた.社会学で応用できそうなアイディアも浮かんだので収穫あり(ちなみに清水先生はSEMで有名な社会学者K. Bollenとの共著あり).現在はLiNGAMの仮定(線形性,非巡回性,非ガウス性)をどこまで緩められるかの研究,また観測変数の未観測共通原因がある場合の研究が盛んなよう.そこにスパース性が絡んでくるので面白そう.実装に関しては著者のHPにまとめられているように,公開されているのはMATLABやRが中心.ベイズの枠組みでも色々と検討されているそうなので,Stanによる実装も試してみたい.LiNGAMのアツさがわかる一冊.

因果ダイアグラム:結論の前に仮定をかこう

構造的因果モデルの勉強を少しずつはじめている関係で,edXにあがっているCausal Diagrams: Draw Your Assumptions Before Your Conclusionsという講義を受けてみました.講師はMiguel Hernánで他にもRobins,Pearl,VanderWeeleへのインタビューやショートレクチャーもあるように,なんとも豪華な顔ぶれ.9週でデザインされたコースのようだが,まとまった時間があれば数日で終わる内容だった.テクニカルな話はほとんどないので,真面目に勉強するならHernán and Robins (2018) Causal Inference を読んでねという流れ(AcknowledgmentsにTadayoshi Fushiki先生のお名前を発見).パールの肉声を初めて聞いたけどもう81歳なんですね.ちなみにシラバスは以下の通り.

Course Description

This course introduces causal diagrams as tools for researchers who study the effects of treatments, exposures, and policies. The course focuses on translating expert knowledge into a causal diagram, drawing causal diagrams under different assumptions, and using causal diagrams to identify common biases and guide data analysis. The first part of the course introduces the theory of causal diagrams and describe its applications to causal inference. The second part of the course presents a series of case studies that highlight the practical applications of causal diagrams to real-world questions from the health and social sciences.

Course Outline

Lesson 1: Causal Diagrams
Released on September 26, 2017

Lesson 2: Confounding
Released on October 3, 2017

Lesson 3: Selection Bias
Released on October 10, 2017

Lesson 4: Measurement Bias/ Putting it All Together
Released on October 17, 2017

Lesson 5: Time-varying Treatments
Released on October 24, 2017

Cases:
Released on October 31, 2017

The Birth Weight Paradox with Dr. Allen Wilcox
Measurement Bias in Memory Loss with Dr. Maria Glymour
Confounding in Mediation Analysis with Dr. Tyler VanderWeele
Genes as Instrumental Variables with Dr. Sonja Swanson

 

 

Grimmer et al. (PA 2017) アンサンブル法による因果効果の異質性の推定

 因果効果を推定するために多くのRCTが実施されているなか,部分母集団によって効果がどのように変化するのか(Heterogeneous Treatment Effects: HTE),また異なるトリートメントによって効果がどのように変化するのか(Effects of Heterogeneous Treatments: EHT)に関する研究が増えてきている.HTEやEHTについては様々な手法(Regression trees, BART, LASSO, KRLS等々)が提案されているが,最近は特に機械学習の手法を援用したものが多い印象である.本論文が提案していることは,これまでに提案されてきた各手法を使って手元のデータをCVで分析し,予測精度の観点(本論文ではRMSE)からパフォーマンスの良かった手法に大きなウェイトをかけてやり,各推定量の加重平均をアンサンブル推定量として採用するというものである.そのうえでHTEやEHTについて推定をする.

Grimmer, J., Messing, S., & Westwood, S. J. 2017. ``Estimating Heterogeneous Treatment Effects and the Effects of Heterogeneous Treatments with Ensemble Methods.'' Political Analysis 25(4): 1–22.

 Table 2において,4種のデータ生成過程でモンテカルロシミュレーションをおこないアンサンブル法が平均的にベストだと論じているが,データ生成過程によってはアンサンブル法よりパフォーマンスの良い手法もある.また平均的にもLASSOやBayesian GLMとさして変わらない.

 ちなみにHTEやEHTについて,単純にグループやトリートメントの条件付き平均因果効果を比較すれば良いのでは?という点については著者らがこのように議論している.

When there are a large number of observations in each condition and participants who share the same set of covariates, reliable estimation of ATEs, CATEs, MATEs, and MCATEs is straightforward. The random assignment of participants to treatments ensures that a difference in means across treatment arms will reliably estimate the ATE and a difference in means across arms among respondents with the same set of covariates provides an accurate estimate of CATEs and MCATEs. With a large number of participants, the differences computed with naïve differences in means will tend to reflect systematic differences (Gelman, Hill, and Yajima 2012). But for more heterogeneous treatments with a large number of conditions, or covariates that have few observations who share the exact same covariates, a simple difference in means will be a less reliable estimate of the effect of treatments. When the sample size is relatively small, naïve differences will be likely to reflect random variation in the sample, rather than systematic differences in the underlying methods because there will be few observations who share the exact same characteristics. This renders ineffective the usual method for estimating heterogeneous treatment effects: computing a difference in means for observations with the same covariate value. It also makes simple comparisons of different levels of high-dimensional treatments highly problematic.

Luo et al. (AJS 2016) コーディング条件に対するIEの感度

APCモデルにおけるコーディングとIntrinsic Estimator (IE)の感度を分析したペーパー.IEを提唱したYang et al. (SM 2004)やYang et al. (AJS 2008)に対するコメントという位置付けである.ちゃんと読んでいないが斜め読みでメモ.

Luo, L., Hodges, J., Winship, C., & Powers, D. 2016. ``The Sensitivity of the Intrinsic Estimator to Coding Schemes: Comment on Yang, Schulhofer-Wohl, Fu, and Land.'' American Journal of Sociology 122(3): 930–961.

APCモデルの関心は年齢,時代,世代の効果を推定することであるが, A=P-Cという線形従属の関係があるためそのままでは推定できない.Yangたちはこれまで使用されてきた伝統的な制約のかけ方とは異なる方法でIEを提唱した.現在は社会学のみならず疫学や犯罪学などでも広く使われている.

Intrinsic Estimator

  • 年齢,時代のグループ数を a, pとすると,コーホート*1数は a+p-1
  •  \bf Yが目的変数, \bf Xがデザイン行列, \bf bがパラメターのベクトル
  • APCは線形従属なので \bf Xがフルランクとならない
  • そこでヌルベクトル \bf X_0とすれば一つの解 \bf b_1を使って他の解を {\bf b_1}+r \bf B_0と表現できる
  • つまりIE ({\bf b_1}+r{\bf B_0})^T({\bf b_1}+r{\bf B_0})を最小化する rを代入した値

IEの言い分と批判

  • IEサイド:伝統的な制約を課したGLMよりも優れているどころか真のAPCパラメターを識別している
  • IE批判サイド:いやIEも制約を課した推定なんだけど...

APCモデルにおけるコーディング

  • 年齢 \times時代のコーホート表を考えると,様々なコーディングができてしまう
  • 線形コーディングやカテゴリカルコーディング等々(参照かエフェクトかゼロサムか等々)
  • APCはそもそも識別できないのでを無理やり制約をかけて解いているのでコーディングの違いによってはパラメターの推定値が真逆になることも

結論

  • コーディング方法が複数存在することもあってIEは無限の推定値をもつ
  • IEが真のAPCパラメターを識別しているというのは嘘

補足

  • IE批判は昔からありIEも一つの制約解であることは知られていたがコーディングでここまで大きく推定値が変化するとは
  • IEはリッジ回帰の一種とみることもできるがベイジアンコウホートも同様
  • ベイジアンコウホートについてはこの解説がわかりやすい
  • 一番わかりやすいのはFig.4で「ゼロサムコーディング」と「最初のグループを参照コーディング」ではsolution lineのうち最小となる点(ノルム)が変わる f:id:analyticalsociology:20171110140132p:plain

ちなみにIE関連の話はGelmanも少しだけ絡んでいて彼のブログにもそのことが触れてある.Gelmanも最初はYangたちの気持ちもわからんでもないという論調だったのだが最後には,

I’ll go with Luo/Hodges/Winship/Powers, who agree with Heckman/Robb and Fienberg/Mason before them.

と述べている. Luo/Hodges/Winship/Powersというのは本ペーパーの著者たちのこと.というわけでIEを使ったらすべて解決ではないということは自覚しておかなければならない(APCテキストをちゃんと読んだ人はわかっていたことだと思うけど).ちなみにこのコメントに対するIE側のリプライがこれだが未読.

*1:Cohortの訳については「コーホート」「コウホート」「コホート」などがあるが,どれを用いるかでなんとなく流派がわかってしまうという話はさておき.

Imai and Tingley(AJPS 2012) 混合分布モデルを用いた競合仮説の検証

社会科学ではある現象に対して複数の説明の仕方があることが多い.例えば競合する仮説が複数ある場合などが典型であり,そうした場合に混合分布モデル(Finite Mixture Model)が使えますというのを紹介した論文.さっとメモ.

Imai, K., & Tingley, D. (2012). A Statistical Method for Empirical Testing of Competing Theories. American Journal of Political Science, 56(1), 218–236. 

簡単にまとめると,混合分布モデルは,(1)競合する理論・仮説が想定する効果の推定,(2)競合する理論・仮説が妥当する場合の条件の推定をしようとしている.つまり,観察されたデータはどのモデルにどの程度整合的なのかを推定する.

セットアップ

  • ある現象を説明する M個の統計モデルがあるとする
  • モデル間でネストしているか,いないかはどちらでも良い
  • すべてのモデルについて特定している必要はない
  • 観察 iはモデル Z_i=1, 2, ..., Mから生成されているとする
  • どのモデルからデータが生成されているかわからないので, Z_iも同時に推定する

推定

わかること

  • 各モデルのパラメター推定値とモデル確率の推定値
  • 特定のモデルに整合的な観察 i
  • 特定のモデルの全体に占めるパフォーマンス

補足

  • 実装はflexmixMCMCpack
  • 競合する理論・仮説の統計モデルを f_m(y|x, \theta_m)とするとデータ生成過程は Y_i|X_i, Z_i \sim f_{Z_i}(Y_i|X_i, \theta_{Z_i}).ただし \theta_{Z_i} Z_iのパラメター
  • 観察が理論・仮説 mによって生成される確率は \pi_m(X_i, \psi_m) = Pr(Z_i=m|X_i)
  • 混合分布はどちらかといえば予測力を高める方法で因果効果の推定に向いているわけではない.ただしデザイン次第では因果推論もできる
  • 共変量が多いモデルが選ばれやすい
  • 変量効果モデルと違ってグループを事前に決める必要がない

Quillian et al. (PNAS 2017) 雇用時の人種差別のメタ分析

雇用時において人種差別があることは多くのフィールド実験で指摘されてきたが,近年ではそうした差別もだんだんなくなっているとの指摘もある.そこで過去のフィールド実験を用いた研究のメタ分析を行ったところ,雇用時の人種差別は改善されていなかったという(1989〜2015にかけて).ちなみに社会学者でこの分野でフィールド実験論文をASRにパブリッシュしているPagerも著者の一人.

Quillian, L., Pager, D., Hexel, O., & Midtbøen, A. H. 2017. “Meta-analysis of field experiments shows no change in racial discrimination in hiring over time.Proceedings of the National Academy of Sciences, 201706255. 

Nishi et al. (Nature 2015) 富の可視化と不平等

不平等の生成について,被験者に富(wealth)の状況を可視化してラボ実験した論文.非常に面白いし社会政策上のインパクトもある.日本でも何かできないだろうか.

Nishi A, Shirado H, Rand DG, Christakis NA. 2015. “Inequality and visibility of wealth in experimental social networks.Nature 526(7573): 426–429.

ヒトは相対的に平等な資源配分を好むことが知られているが,社会にはさまざまな度合いの経済的不平等が存在する.本論文では,不平等を決定すると考えられる要因のいくつかと不平等がもたらす影響を調べるため,被験者が相互作用して富を得たり失ったりする「ネットワーク化された公共財ゲーム」実験を行っっている.被験者(n = 1462)を,初期保有額が多い状態もしくは少ない状態にランダムに割り当て,3つの経済的不平等レベル(ジニ係数がそれぞれ0.0,0.2,0.4)の社会的ネットワーク内に組み込む状況をつくりだした.さらに,ネットワーク内の隣人の富の状態を可視化した(ここがポイント).その結果,富の可視化は初期の不平等が与える以下の影響を促進することが明らかとなった.すなわち,初期の不平等が大きい状況では,富が不可視であるよりも可視である方が不平等はより大きくなる.この結果は,可視化に対する反応がより豊かな被験者とより貧しい被験者で異なることを反映したものである.また,富の可視化は全体的な協力・相互連帯や富のレベルを低下させることも明らかとなった.

ラボ実験の詳細についてメモ.

 被験者は1462人で平均30分の80セッションに分割.各セッションの平均サイズは17.21.30%のつながり(tie)が存在するErdős–Rényiランダムグラフで配置をしている.したがって,被験者は初期に平均5.33の隣接がある.被験者は隣人と10ラウンドの協力ゲームを行った.各ラウンドではすべての被験者は協力するかどうかを選択する.協力=すべての隣人の富を100単位ずつ増やすために自分の富を隣人ごとに50単位ずつ減らすことである(最後に現金換算される).非協力=被験者の富も減らず隣人の富も増えないことである.これらの相互作用は経済的取引を構成し各個人の富に影響を及ぼし,その結果全体の富と不平等の変化をもたらすというセッティングである.

 被験者が協力の選択をした後,被験者は隣人の選択を知らされる.その後被験者はtieを作ったり断ったりして隣人を変える機会を得る.具体的には,すべての対の被験者の30%が各ラウンドでランダムに選ばれ、ネットワークを再編する機会が与えられている.2人の被験者の間に既に協力が存在する場合は,2人のうちの1人が無作為に選ばれ,自発的に他の人と同調するかどうかを選択することができる.両者の間にすでにtieが存在していない場合は,両者にtieを形成する選択肢が与えられ,両者が承認すれば新しいtieが形成される.この決定をする際に被験者は過去のラウンドで協力し合っていたか,または非協力したかどうかを知っている.

 このセッティングの下で,初期の不平等と富の可視化を操作する.初期の富不平等を操作に関しては,被験者は3つの条件のうちの1つにランダムに割り当てられる.「初期不平等がない(ジニ係数が0.0)」条件では,各被験者は500単位の同じ初期財産でゲーム開始.他の2つの条件では,「豊かな」被験者は「貧しい」被験者よりも大きな初期財産を保有するので,初期での不平等が存在する.重要なのは,すべてのグループで初期の1人当たり総資産額は等しく(つまり500単位),富の分布のみが異なるということである.被験者は,初期の低or高不平等条件下に無作為に割り当てられ,また無作為に生成されたネットワーク内のノードの1つに無作為に割り当てられる.

 さらに本論文の重要な点として,隣人の富の可視化を操作する.「目に見えない」状態では,被験者は自身の蓄積された富を知っているだけ.「目に見える」状態では,被験者は自身の蓄積された富と直接的につながった隣人のそれぞれの富を見ることができる.繰り返しになるが被験者は,隣人の富の可視化の条件にかかわらずそれぞれの隣人が協調しているかどうかは知らされている.「目に見えない」状態と「目に見える」状態の両方で,被験者はネットワーク全体についての知識はなく,隣人に関する知識しか持っていない.

 以上がラボ実験の詳細だが,結果についてもう少し詳しく.まず可視化は初期不平等が低いグループでも高いグループでもジニ係数を高める(初期ジニ係数が0のグループは効果なし).次に初期の不平等度合いにかかわらず初期保有財産が多いものは最終的にも多く,少ないものは最終的にも少なかった.そして全体の富に関しては,可視化が負の影響を与えている!ちなみに可視化は協力率も近接率も下げている(初期保有財産は協力率・近接率とほぼ関連がない).メカニズムについてはあまり言及はないが,ニューロや心理的な影響を挙げている.

 富を可視化するということは相対的剥奪にさらされる可能性が高まるということである.現実の社会では富がどの程度可視化されていて,我々がどこまで精確に隣人の富を計算できているか知らないが,このあたりグニャグニャっと実験のセッティングを変えて何かできそうな気がする.しかしラボでサンプルサイズが1500弱とはさすがという感じである.

Imai and Ratkovic(AoAS 2013) ランダム化プログラム評価における因果効果の異質性の推定

最新のPAでGrimmerらの因果効果の異質性論文がでたのでその関連でImai and Ratkovic(AoAS 2013)をメモ.

Imai, K. and Ratkovic, M. 2013. “ESTIMATING TREATMENT EFFECT HETEROGENEITY IN RANDOMIZED PROGRAM EVALUATION.The Annals of Applied Statistics, 7(1), pp.443-470.

因果効果を推定するというときにその多くはATEだったりATETだったりするわけだが,政策担当者からすると「どの介入方法が効果が大きいのか(小さいのか)」また「どの個体(unit)で効果が大きいのか(小さいのか)」を知りたいことがある.どういうトリートメントがどういうグループで因果効果が大きかったり小さかったりするのかを推定することは因果効果の異質性と呼ばれる.最近の因果推論ではホットなトピックであり,ポリサイ,エコン,ソシオでも多くの論文がでている.

本論文の肝は方法に関する説明があるsection2.分析枠組みはもちろんルービンのPO.後に提案する方法のテストで使うデータは有名なget-out-the-vote(GOTV)と障害のある労働者にジョブトレーニングをしたnational supported work(NSW)の2つ.GOTVはトリートメントが192種類,NSWはトレーニングを受けたか否かの1種類.モチベーションは2つ.(1)(GOTVの場合)正の効果があるトリートメントはどれで,そのうちトリートメントの効果が最も大きいのはどれか,(2)各トリートメントはどの個体に効果がある(ない)のか.

今回の方法のポイントは因果効果の異質性の推定を変数選択の問題とみている点.大まかに説明すると,プリトリートメント(ここではグループや個体と同義)変数と異なるトリートメント変数のパラメターそれぞれにLASSOの制約をかけながら(ペナルティ項が2つあるのがポイント),サポートベクターマシーン(具体的にはL2-SVM)で異なるパラメターを推定しているのである.推定のアルゴリズムは3段階で,まずは変数をリスケール(LASSOで必要になってくる),次にモデルをフィットさせる(例のようにペナルティ項の \lambdaを決めていく),最後にフィットの評価で一般化交差検証を用いる.FindItパッケージで色々試せる.

さてGOTVを例に推定した結果をみてみよう.トリートメント192種のうち因果効果がゼロでないとされたのは15種類であった.最も効果があったのは「訪問」「電話なし」「メールなし」だったそう.

NSWに例については,プリトリートメント変数が45あるので,どの個体に効果があったのかという点も検証できる.結果は,「学歴低」「高所得ヒスパニック」「大卒無職blacks」「高卒無職ヒスパニック」に大きな効果があったそうである.

因果効果の異質性について他にもたくさん論文があり,冒頭にあげたGrimmerたちがシミュレーションで比較しているようなので後でそちらもチェック.

King and Nielsen (WP 2016) なぜ傾向スコアをマッチングに使うべきでないのか?


 先日の研究会でKingらの傾向スコアマッチング使うな論文がとりあげられたのでメモ.この論文の存在はあまりにも有名だが,実はちゃんど読んでいないという人が多い気がする(そのうちの一人だった).

Gary King and Richard Nielsen. 2016. “Why Propensity Scores Should Not Be Used for Matching”. Working Paper.

  一番わかりやすいのはまずはKingのレクチャーをみた後に本文を読むという順番だと思う.ごく簡単に結論をまとめると,傾向スコアマッチングを使うと,マハラノビス距離マッチングやCoarsened Exact Matching (CEM:大まかな属性で厳密なマッチングをする方法)に比べて,モデル依存(推定モデルによって結果が変わる程度)やインバランス(本文ではAbadie and Imbens (ECTA 2006)のMahalanobis Discrepancy を指標としている)の程度が大きくなってしまう.ハイライトは本文中のFig1~3で,この図からは(1)傾向スコアは最も似ている(近い)人とのマッチングができていない,(2)傾向スコアを基準にマッチング相手を枝刈り(prune)していくとモデル依存とインバランスの程度が大きくなってしまうことがわかる.

 ではなぜこんなことが起こってしまうのかというと,傾向スコアマッチングが近似しようとしている実験状況に理由がある.以下の表の通り,マッチングをするうえでは完全にブロックしたうえでランダムな割り当てをする方法が,ブロックなしの完全なランダム化よりも様々な統計的性質の面で望ましい.例えばImai et al. (SS 2009)では,完全にブロックしたうえでランダムな割り当てはブロックなしの完全なランダム化よりも標準誤差が約600%も小さいことが報告されている.

共変量のバランス 完全なランダム化 完全にブロック(層化)したうえでのランダム化
観察されている共変量 平均的にバランスする 完全にバランス(一致)する
観察されていない共変量 平均的にバランスする 平均的にバランスする

 そのうえで,傾向スコアマッチングが近似しようとしているのは完全なランダム化である.これは共変量を1次元の指標にして,共変量とは独立にトリートメントの効果を推定しようとしていることからも明らかである(本文中に書かれているが1対1マッチングにおいて同じ傾向スコアのマッチング相手がいたらランダムにどちらかを選ぶ).それに対して,マハラノビス距離やCEMなど他の方法は完全にブロック(層化)したうえでのランダム化に近似しようとしている(各共変量の距離を計算するので).したがって,傾向スコアマッチングよりもマハラノビス距離マッチングやCEMの方が望ましいということである.

 というわけで,Kingらはマッチングをする際にはマハラノビス距離やCEMを利用することを薦めている.ただし,傾向スコアが数式的に問題があるというわけでなく,またマッチング以外に傾向スコアを用いることについては今回の指摘はあてはまらないと繰り返している.それでも傾向スコアマッチングを使いたい場合にはFig3にあるように,枝刈りに応じたインバランスの程度を必ず示して,傾向スコア基準ではバランスは改善されているはずなのに実際にはインバランスが大きくなっていないかを確認すべきであると指摘する.

 ルービンたちに気を遣ってか「傾向スコアは数式に問題があるわけでなく実践面で問題があるのだ」と繰り返されているが,これは実際の分析では強く無視できる割り当てが担保できていないことを含意しているのだろう(そこで感度分析をするわけだが).よくわからなかったのは,シミュレーションのデータ生成過程.2つの共変量それぞれについてUniform(0,5)でコントロール,Uniform(1,6)でトリートメントをランダムに発生させているのだけど,一般的に傾向スコアマッチングを使う際にはトリートメントが共変量との何らかの関連のもとで発生する状況を想定する.この場合にも今回と同じような結果になるのかについては書かれていなかった気がする(ただそれでもマハラノビス距離やCEMはうまくいってるからトリートメントのデータ生成過程に関しても一般的な結果なのだろうか).アペンディックス等にあるのかもしれないけど,シミュレーション自体は簡単なので後で試してみたい.

 それとこのWPが出たのは結構前なんだけど,まだパブリッシュされていないのは査読が長いのか,それとも何かあったんだろうかというのは研究会で話題になった.

Watts(NHB 2017) 社会科学はもっと問題解決志向になるべきか

ダンカン・ワッツが社会科学のあり方について綴ったエッセイ.こういう話は既にいろんなところで多くなされてきているのだが,ワッツが書いているし短いのでサッと読んでみた.

Watts, D. J. (2017). "Should social science be more solution-oriented?Nature Human Behaviour, 1(1): 1-5. 

社会学*1としてMicrosoftに勤めているワッツは,同僚の物理学者やコンピュータサイエンティストとの交流が多く,しばしば「社会科学とは何か」について議論をするそうだ.本エッセイでは,そうした議論から生まれたであろうワッツの社会科学観のようなものが綴られている.結論としては,ワッツは「社会科学はもっと現実の問題を扱って,問題解決志向の分析をすべきで,そこからじゃあどんな理論が考えられるんだろうと問えば良い」と考えているようだ.以下に内容を箇条書きでメモ. 

・社会科学は物理学と違って一つの現象を一つの理論で説明できていない.例えば社会的伝染や集団行為を説明する際に,モチベーション自体は同じなのにGranovetter(AJS 1978)Bikhchandani et al.(JPE 1992)のように異なる説明の仕方が混在している.

・なぜこういう混在が起きているのかについて,昔は適切なデータへのアクセスがなく実際にテストできないからだと考える人たちがいた.ただしそれが問題だとしたら,今日のビッグデータを用いた計算社会科学や様々な実験によって解決されているだろう.

・社会科学における分析手法の発展は目を見張るものがあるが,現実には上述の問題は解決されていない.ワッツによれば,分析手法の発展によって理論の構築は一層の混乱を招く作業となった.

・社会科学に限らず,それぞれの分野がそれぞれの流儀や流行りの分析手法で論文を書いて評価を得ているため,分野間の交流が少ない.結果いろんな理論や結果が混在.

・そこで,現実問題の何かを対象にして様々な社会科学分野の研究者が分析すれば良い.この問題解決志向の良いところは以下の5点.

・First, the requirement that solutions work in the real world would automatically satisfy replicability requirements, thereby disciplining social-scientic theorizing in ways that would augment the existing peer review system.

・Second, solving any nontrivial real-world problem would almost certainly require fundamental advances in social-behavioural science, and possibly also in related fields such as computer science and statistics.

・Third, realizing these advances would require tightly coordinated, multidisciplinary team-based research of the sort that is common in industry but largely absent in academic social science. 

・Fourth, constructing teams of this sort would bring the incoherency problem to the forefront and force researchers to address it directly.

・Finally, the emphasis on practical applications would help justify larger upfront investments than are typical for social-science research, thereby enabling more ambitious research designs. 

 

 ワッツのいう問題解決志向の社会科学研究って既にかなりあるのではと思いながら読み始めたが,ワッツは社会科学のすべての研究が問題解決志向になるべきだと言ってるわけではなく,またこれまでの社会科学で問題解決志向の研究がなかったと言っているわけではないことを繰り返していた.また最後の方でワッツが,「(問題解決志向の研究において)研究そのものは専門家だけが理解できる複雑なものであるが,問題の内容を理解したり,提案された解決策が実際に機能しているかどうかを確認するために特別な専門知識は必要ない」と述べているのは印象的である.ちなみに,2015年には『社会学評論』でも「社会学は政策形成にいかに貢献しうるか」という特集が組まれており,ワッツのいう問題解決志向の研究と遠くない内容である.

 なお,ビッグデータの利用可能性と分析手法が飛躍的に発展するなか,理論はもういらないのかという問いが色々なところで立てられているが,ほとんどの人は「いや依然として理論は重要」「ビッグデータを使う時こそ理論の重要性が増す」と答えている.マイケル・メイシーもそんなようなことを言っていた.

*1:ワッツ自身が自らを名乗るときに社会学者としているが,彼の博士号は物理学.