補足とまとめ

太郎丸 博

目次

  1. フィールド調査しない研究
  2. 質的データ解析ソフト
  3. 補足

1. フィールド調査しない研究

調査しなくても卒論は書ける

  • 自分で考えるのがめんどーだから、当事者に教えてもらおうなどという安易な調査はやめてほしい。
    • 調査しても新聞記事以上の成果は得られず、当事者や教員に迷惑をかけるだけだから
    • データはそれを解釈する理論的枠組みがあってはじめて意味を持つ
    • 研究倫理的にも問題ありそう
    • 当事者が「インタビュー大歓迎」という場合は別だが…
  • 二次データの分析や文献研究など調査しなくてもやれることはいろいろある

文献研究1:歴史社会学の例

  • 京都大学における学生に対する懲戒処分の歴史
    • 最近、厳罰化している?
    • 資料はどこかにありそうだし、やればできそう
  • ディズニープリンセスの話し言葉の変容
    • 一昨年度(?)のミニ卒のレポート
    • 発話の語尾が女性的か、中性的か、といった分類をして、女性的語尾の使用率が近年減少したことを示した

文献研究2:レビュー

  • ある分野の研究をたくさん読んで、どんなことがわかっていて、どういう課題があるのかまとめる
    • 例1: 災害が自殺率に及ぼす影響の研究
    • 例2: 服装が着装者の自己認知に及ぼす影響の研究
  • これまでの研究成果を整理してまとめるだけだが、きちんとやれば他の研究者の役に立ち、無駄な調査をするよりもずっと価値がある

二次データの分析

  • 質問紙調査の多くはデータアーカイブに寄託され、他の研究者にも公開されている
  • 卒論等で使えるデータも多数
  • データは少し古いが、よく練られた調査データもあるので、自分で調査する前にこういった二次データを分析することはとても勉強になる

スクレイピング

  • ウェブページ上の情報がデータとして有用な場合も多い
  • しかし、手作業でコピペすると手間や時間がかかりすぎる場合も
  • コンピュータにやらせれば簡単にできる場合もある
  • このように Web ページから必要な情報を収集することをスクレイピングという (F5 n.d.)
  • Web Scraper (Google Crome のアドイン)や R のパッケージなどフリーウェアも

テキストマイニング (熊谷 and 船尾 2007; 石田 2017)

  • テキストデータの統計的な探索的分析の総称
  • 大半は単語の出現数を数えるだけだが、
  • 隣接する 2つ以上の単語の連なりを数えるようなアプローチもある。一般に \(n\) 個の単語の連なりを n-gram という。
  • 単語等の数を数えた後は、通常のデータ分析とほぼ同じ
  • 日本だと KH-Coder がよく使われているようだが (樋口 2017)、R のパッケージ等も
  • 意外と面白い結果を出すのは難しいので、明確が仮説がない場合はお勧めしない

2. 質的データ解析用ソフト (佐藤 2015)

  • フィールドワークでは、フィールドノート、インタビューの録音、紙の資料のコピー、ビデオなど多様なデータが蓄積していくことも
  • データが増えてくると、見落としや一部のデータだけに依拠してしまうなどの危険性高まる
  • すべての資料を一括でデータベース化して、様々な観点から検索できると便利

質的データ解析 Qualitative Data Analysis QDA ソフト

  • 個々の資料にはタグ(コード)を振り、検索しやすく
  • Nvivo, MaxQDA などの有料ソフトが有名だが、RQDA や Taguette などフリーウェアも
  • 教育学、看護学、医学では結構使われているらしい (ArakiToyomasuNakano2022?)
  • データを検索しやすくし一覧性を高めるのが主な機能なので、データの解釈は人間がやる

3 補足

3.1 理論的知識の重要性: 卒論の例

  • なぜ OB/OG がクラブのために寄付してくれるのか理由が知りたい。
    • 寄付者に尋ねたら、「クラブが好きだから」
    • これでは大した発見は何もない
  • OB/OG の寄付は一般交換/公共財の供給の一種かもしれない
    • だとすれば、どういう場合に一般交換/公共財の供給が成功しやすいのか先行研究がある
    • それらの要因が問題のクラブにあてはまるのか検証してみる
  • インタビューしても研究は進展しなかったが、先行研究から学ぶことで進展することは多い

探索的研究と仮説検証型の研究

  • 探索的 exploratory: 特に仮説を持たずに調査したり、データを分析したりすること
  • 仮説検証 hypothesis test: 仮説を検証するために必要なデータを集め、分析すること
  • 質的研究では仮説検証はほぼ否定されているが、統計的な研究では両方必要とされている。

探索によりかかりすぎる危険

  • 探索の重視はしばしば先行研究の検討の軽視につながっている
    • 「とりあえず調査してみろ、そのうち何か見つかる」的なアドバイスは多い
    • しかし、何も見つからないまま、締め切りを迎える人や成果の出ないまま数十年経つ人も
    • 知識がないせいで重要なポイントを見落とすことも
  • 先行研究を読んだほうが、早く正確な知識や様々な視点や研究方法を知ることができる場合も多い

リサーチデザインの重要性

  • 先行研究や探索的データ解析等から、仮説が得られたら、その説得力を増すためにどうしたらいいか真剣に考えるべき
  • 安直な調査や解釈だけで終わる研究にはうんざり
  • ある仮説を論証するために必要なデータを得るための調査・実験のやり方、得られたデータの分析法などの総体をリサーチデザインという。
  • リサーチデザインは仮説検証型の研究では必須

3.2 誰でもミスする

  • データ処理の過程で間違いが起きることも
  • 重要なのは、作業記録が残り、事後的にチェック・修正できるようにしておくこと
    • Google Spreadsheet はプログラム等の記録を残すのは難しい(コピペで間違ったり、間違って削除や入力してもその記録は残らない)
    • ただ変更履歴が残るので、間違いが起こる前のヴァージョンのファイルを復元できる場合がある(間違ってデータを消したとき便利)

チェック・修正できるようにする

  • プログラミング言語を使う場合はプログラムを保存しておけば、データ処理の全過程が記録に残り、間違いがあれば事後的に発見・修正できる
  • データやプログラムは公開すれば、第三者もチェック・訂正できる
  • 間違いは起きるという前提で、それをあとから発見・修正できるようにしておくべき
  • 質的研究に関しては、このようなチェック、修正法なし

重要なのは正解を得ることではなく、正しく論証されていること

  • 神のお告げを得て、ホームチームの勝率の真値を得たとしても、学問的には無意味
  • 結論だけが述べられ、その論拠が示されていない研究は、その結論が正しくても無意味
  • 説得力のある論拠を示し、論理的に結論を導くことが重要
  • そのために必要な手続きや論証の仕方、コツの集積が研究法(の教科書)

3.3 平均と多様性を両方見る

  • 平均値だけでなく、対象の多様性(標準偏差や、最小値、最大値、パーセンタイル等)を見るべき
    • 質的研究で「代表的」事例をいくつか見るだけではなく、その他の事例の多様性も見るべき
  • 逆に「人それぞれで一概に言えない」は、その集団の平均的な傾向を見ようとしない単なる思考停止
    • 非正規雇用は多様で、中には正規雇用の平均賃金よりたくさん稼いでいる人もいるが、平均的には正規雇用よりも賃金は低い。多様性を隠れ蓑にして平均的な格差を隠ぺいすべきではない

文献

F5. n.d. スクレイピングとは.
佐藤郁哉. 2015. “質的データ分析の基本原理と QDA ソフトウェアの可能性.” 日本労働研究雑誌 57(12):81–96.
樋口耕一. 2017. “計量テキスト分析および KH Coder の利用状況と展望.” 社会学評論 68(3):334–50. doi:10.4057/jsr.68.334.
熊谷悦生, and 船尾暢男. 2007. Rで学ぶデータマイニング: データ解析の視点から i. 九天社.
石田基広. 2017. Rによるテキストマイニング入門. 森北出版.