カテゴリー別アーカイブ: 研究

Visual World Paradigmの分析

だいぶ前に書きかけで放置していた記事の更新です。

7月1日,2日で言語科学会に行ってきました。心理言語系の発表が多く,講演やシンポジウムでの発表も含めて,Visual World Paradigm(以下,VWP)という手法を用いた研究が結構ありました。このVWPは,ざっくりいうと主に音声で言語刺激を与え,それを処理している最中の実験参与者の視線を計測するという手法です。このとき,参与者は主に視覚提示されたいくつかの絵や写真を見ています。そこで,どこをどれくらい見ているか,あるいはどのタイミングでどこに目線がいきやすくなるのかを観察することで,人間の言語処理の仕組みを明らかにしようとするわけです。

で,そこですごく気になったのが分析方法。普通の文処理中の視線計測実験では,文のどこ(どの単語,句)をどれくらい見ているかなどを分析しますが,VWPでは音声データが流れていく時間の経過とともに変化する視線の動きを追っているわけで,時系列データになります。文であれば,画面上に1行で提示できるほどの長さが限界ですので,多くとも10-15語程度,その中で,分析の対象となる区域は2-3程度だと思います(注1 )。

ところが,VWPの人たちってまずこの区切り方がめちゃっくちゃ恣意的だったりします。それでもって,25msとか50msごとにグラフに点を売ったりしているわけです(eg., Ito et al., 2017, BLC)。え?待って?てことは50msごとにモデル作ってそれぞれで「検定」っぽいことしているわけ?LME(GLMM)使ってるからどうのこうのとか言う問題じゃなく,その分析の仕方っておかしくないですか?要するにt検定を数十回繰り返しているのと同じわけで,そんなことしたら第1種の過誤が飛躍的に上昇してしまうはずですよね(注2)?

たまたまBLCで見つけたので他意はまったくないのですが,Ito et al. (2017)ではその部分に対して以下のような記述があります。

This way of analysing the time-course increases the likelihood of Type I errors, but we note that the differences reported below show consistently reliable effects over multiple bins.

確かに論文中の図をみると,条件ごとの傾向がかなりはっきり出ているわけですが,だからといってそんな50msごとに「有意!有意!」みたいなことやるのは正当化されないでしょう。だって,繰り返しが多いので有意水準をめちゃくちゃ保守的にしますなんてことはやってなくて,t値が2超えたら有意ってことでいくんでよろしくとかやってるのですから。

VWPは手法としてはすごく面白いのだけれど,分析の手法が全然追いついていないのではないかというような印象です。このパラダイムで分析をしていくためにはもともとの注視時間のデータを割合にする(つまりある単位で区切ったときに,その単位時間のなかでどの領域をどれほどの割合で注視しているかというデータにしている)ということがおそらく不可欠だからかもしれません。そうではないと,視線計測の時系列データから興味関心のあるデータをうまく取り出すことができないからです。もっといい方法ないのかなと思うのですが…

もし仮に単位時間を恣意的に設定して「観測点」のように捉えることは出発点としてOKだとしても,それはやっぱり時系列データ分析の手法を持ってくるほうがいいように思います。以下の記事のような考え方です。

二つの時系列データの間に「差」があるか判断するには

自分でこの時系列のデータ分析を実装する技術を持ち合わせているわけではないのですが(そもそも視線計測のデータセットを見たことがないのであまりイメージも浮かばない),誤差による上下動があるなかでの特定の条件での「変化点」を検知したり,あるいは区域ごとではなく「全体として」プロセスが異なることを分析するような考え方ができたらいいのではと思います。区域ごとに区切って分析するとはいえ,前の状態の影響を一切受けずに次の状態が決まるわけではなく,前の状態があるから次の状態に移行するわけで。たぶんこれって視線計測装置とか文処理にかぎらず,時系列になっている(観測点が時系列上に複数並ぶ)データに対してはすべて当てはまると思うんですよね。longitudinal studyとかも含めて。

私も結局はエンドユーザーなので,自分がそういうデータセットを前にしたときにうまく分析して解釈できる自信があるというわけではないのですが,なんかもやもやするなぁと思いながらずっと発表を聞いていたのでした。

なにをゆう たむらゆう。

おしまい。

 

注1. もっと解像度の低い視線計測装置だとヒートマップみたいなもので視覚的にどの辺を多く見ていたかとかやることもあるかと思います。パッセージ読んでるときの視線とか。

注2. これはもちろん自己ペース読み課題の分析にも当てはまるのでブーメランです。

CELES2017英語教育実践セミナー

以前このブログでも紹介させて頂きましたが(https://tam07pb915.wordpress.com/2017/03/28/seminar-celes2017-nagano/),明日6月24日に信州大学で行われる第47回中部地区英語教育学会の英語教育実践セミナー1で,「タスクを用いたスピーキングの指導と評価」と題した発表をさせていただきます。

投影資料についてはまだ細かいところで修正をするかもしれませんが,配布資料を印刷し終えたので,配布資料をGithubページにアップロードしました。

https://github.com/tam07pb915/CELES2017-Seminar

Githubでスライドを公開する方法がいまいちよくわからず,何度か調べたりしながらトライしたのですが結局うまくいかなかったです(github.ioを作ればよいことまではわかったのですが,HTMLファイルはそこで公開できても,Rmarkdownからreveal.jsを経由して作ったHTMLファイルをスライドとして公開するやり方がわかりませんでした…

配布資料は,pdfのものについてはRmdファイルからMS-Wordに出力したあとにPDFにしたものです。Wordファイルにした後で,フォーマットをいじったり一部穴抜きにしたりしてあります。Rmdファイルのものは穴抜きになっていません。

また,当日は私が担当したクラスの学生の発話を音声で流しますが,その部分については公開した資料からは削除してあります。

基本的には,『タスク・ベースの言語指導ーTBLTの理解と実践』で私が担当した部分で書いたタスク・ベースの指導における評価の考え方のような話をする予定です。先月に広島で私が話したこととも一部重複する話も少しだけあります。

この本のこともブログできちんと紹介しなければいけないので(順番が前後してしまいました),書きかけの記事をなるべく早く公開できるようにしたいと思います。

それでは,みなさん,長野でお会いしましょう!

なにをゆう たむらゆう

おしまい。

 

 

「コーパスやりたいです」の意味わからなさ

主にMの学生向けです。新入生も入ってきたりする時期で,どんな研究をしたいかという話をする機会が最近多いですが,なんかそれよくわからないなと思うので少しだけ。

タイトルだけだとコーパスに関わる研究をしている人を批判しているように誤解されてしまうかもしれないのですが,「コーパス」の部分には他にも色々入ります。それは後ほど。

「コーパスやりたいです」が意味わからないと思うのは,コーパスは,少なくとも私の中では道具や手段だからです。もちろん,コーパスが研究の対象となることも当然あって,「コーパス言語学」という分野もあるにはあるのでそれはもちろんいいです(「んなもんはない」という人もいるかもしれないですがその戦いにはコミットしませんとりあえず)。ただ,コーパスを研究対象にするにしても,一体なんのためにコーパスを研究の対象にしていて,そのゴールは何なのかということだけは考えてほしいなと思うのです。

何か見たいものがあって,それを見るためにコーパスを用いるのがベストな選択肢であるならば,コーパスを使うべきであると思います。ただ,研究課題に対して必ずしもコーパスを用いることが適切でない場合もたくさんあります。先にコーパスから入ってしまえば,コーパスを使って研究できることしかできないわけで,最初に決めるべきは研究の対象であって使う道具ではないでしょう。これは,第二言語習得研究で使われる測定具を「◯◯やりたいです」に当てはめて考えてみればわかります。

  • 文法性判断課題をやりたいです
  • 視線計測をやりたいです
  • 自己ペース読みをやりたいです
  • 語彙性判断課題をやりたいです
  • ERPをやりたいです

もちろん,測定具の妥当性を検証することという意味では,上記のやりたいことも研究になりえます。文法性判断ていうけど,一体それは何を測っているのか,測りたいものを測れるようにするためにはどんな工夫が必要なのかということは,それこそ第二言語習得研究の最初の頃から今まで続けられていますよね。これはいわゆる「テスト」も同じです。

  • スピーキングテストやりたいです
  • 語彙テストやりたいです
  • リーディングテストやりたいです

テスト自体も研究の対象になります。スピーキングテストっていうけどそれは一体何を測定しているのか,測定しようとしているものが測れているのか,そういったことを研究課題にするのがテスティング研究者なわけです。

ですから,「測定」に興味があるのはとても良いことですし,ぜひそういう研究やってほしいなと思うのですが,「コーパスやりたいです」と言われると,「コーパス使って何をやりたいの?」と聞いてしまいます。言語教育にコーパスを応用したいということなのか(だとすればどんなことに応用したくて,それがなぜコーパスという手段なのか),言語発達をコーパスで調べたいということなのか,言語使用の特徴をコーパスで調べたいということなのか。コーパス自体が研究の目的になることって,少なくとも言語学の講座ではない場合にはそんなに多くないのではと思います。

ですから,道具立てそれ自体にこだわるよりも大事なのは,研究したいこと,明らかにしたいことを明確にすることと,それに応じて適切な道具を使いこなせるようになることです。

私は文法の習得や文処理に関心があり,そうした研究をこれまで多くやってきましたが,例えば「どんな研究をされていますか?」というような質問を受けたときに「自己ペース読み課題です」と答えることはありません。「第二言語の文法習得や文処理を心理言語学的なアプローチで研究しています。例えば,自己ペース読みなどです」と答えるでしょうおそらく。

ただし,それだけが手法ではありません。常に自分の見たいものを一番見れる方法を考えていますし,新しい実験の手法があればそれを取り入れて研究をやっていきます。興味があることもたくさんありますから,自分の興味があることに合わせて手法も選択することになります。手法が先に来てしまうと,その手法で見れることしか見ないことになり,視野が狭まってしまいます。「コーパス」という手法にとらわれて,実は自分が見ようとしていたものがコーパス以外の方法でより確実に見れることに気づくことができないかもしれません。

その意味で,道具立ての妥当性や信頼性を検証するという目的があり,そしてそれが分野にどういった貢献をするのかを理解していて,なおかつそれが自分の本当にやりたいことなのだと思えるようでなければ,手法よりも先に「見たいもの」について考え抜いて悩み抜いたほうがいいのではないのかというのが結論です。

久しぶりの更新でした。

なにをゆう たむらゆう

おしまい。

英語教育実践セミナー@CELES2017長野大会

2017年6月24-25日に長野県の信州大学で開催される第47回中部地区英語教育学会長野大会の,英語教育実践セミナーでお話させていただく機会をいただきました。この企画は,中部地区英語教育学会長野支部の特別企画だそうで,なんと私の出るセミナーのタイトルは,「スピーキングの指導と評価」です。

ファッ!?いやいやスピーキングの研究とかメインでやってないし評価の研究もメインでやってないよ!?なぜこの話が僕のところに!?

というのがこのお話をいただいた際に思ったことですが,「はい」か「YES」しか選択肢がないのでお引き受けしました。原稿はとっくにあがってるのになかなか校正に入っていない「タスク本」(出版社がとてもお忙しいようです)に書いた内容とも関連させて,タスクを用いたスピーキングの指導と評価についてをお話しようかなと考えているところです。

時間は大会初日24日の10時からということで,ここ数年の中部地区英語教育学会では「恒例」というほどになってきた「英語教育研究法セミナー」の「裏番組」です。参加者として毎年英語教育研究法セミナーに出るのを楽しみにしていたので,そちらに出られないのは残念ですし,昨年度はかなりオーディエンスも多かったセミナーと同じ時間帯ということで,参加いただける方がどれだけいるのかとか不安はあります。そこは実践セミナーの司会を務められる浦野研先生(北海学園大学)にお力添えをいただこうと思います。

私がお話する内容は,「これがいい!」とか「この方法でやればスピーキング力が伸びる!」とかそういったことではなく,「こんな感じでスピーキングの評価を考えてみるってどうですかね?」というような「提案」になると思います(「提案者」としてお話するので)。フロアの皆さんとのやりとりを通して,スピーキングの指導と評価について考えを深められればと思いますので,ぜひ,CELES長野大会にお越しいただければと思います。

なにをゆう たむらゆう。

おしまい。

 

[R] データフレームの中の英文の語数を数える

以前,エクセルで英文の中の特定の単語までの語数を数えるという記事を書きました。今回はそれよりもっと単純で,Rのデータフレームの中の1部に英文が入っていて,その英文の語数を数えてデータフレームに付け足したいなっていう作業です。

%e3%83%96%e3%83%ad%e3%82%b0%e8%a8%98%e4%ba%8b%e7%94%a8_20170218

こんな感じでロング型のデータがdatという変数にあるとします。このデータフレームのなかの,sentenceという列には英文が入っていますが,それぞれ長さが違います。文が長いほうが反応時間も長くなっちゃいますから,そのために英文に含まれる語数を数えてそれも分析に使いましょうということです。僕がやっているような反応時間を扱う実験ではよくありがちな手続きです。本来なら刺激文作るときにそれもちゃんと数えておいて(エクセルで語数数えるのは簡単です。前掲の記事の一部がそれです),結果が出力される際にちゃんと語数の情報も含めておけばいいんですけど,まぁ今回はそれ忘れちゃったんでRの中でやってしまおうという事後的な対処法です。

さてさて前置きが長くなりました。Rでの文字列処理の基本は「分ける」・「数える」だと思います。僕はそんなにRで文字列処理しないんですが,今回の場合で言うと,データフレームの要素に含まれる英文をスペースで区切り,区切ったときにいくつかに分けられた要素の数を数えることで語数をカウントするという手続きになります。

今回使う関数は次の4つです。

  • (as.character関数)
  • strsplit関数
  • length関数
  • sapply関数

順番に説明していきます。strsplit関数は

strsplit(分けたいもの,区切り文字)

という感じで使います。今回の場合,分けたいのはdatの中のsentenceという列(dat$sentence)で,スペースで区切りますから,

strsplit(dat$sentence, ” “)

とすれば,

%e3%83%96%e3%83%ad%e3%82%b0%e8%a8%98%e4%ba%8b%e7%94%a8_20170218_2

こんな感じで単語ごとに区切ってくれます。この出力は1文ずつのリスト形式になっていて,そのリストの要素が英文を構成する単語になっています。もしも,このstrsplit関数がうまくいかなければ,

is.character(dat$sentence)

として,データフレーム中の英文が文字列形式で格納されているかどうか確かめてみてください。因子型(factorial)になっていると,strsplit関数は適用されません。これを変えるのが,as.character関数です。

strsplit(as.character(dat$sentence))

または,

dat$sentence<-as.character(dat$sentence)
strsplit(dat$sentence, ” “)

としてみてください。

さて,これでひとまず「区切る」作業はできましたが,まだ「数える」にはいたっていませんよね。数えるためによく使われるのが要素の数を数えるlength関数です。ただし,例えば

length(strsplit(as.character(dat$sentence)))

としてもうまくいきません。これでは出力されたリストの要素を数えるので,元のデータフレームの行数が表示されるはずです。ここでは,「リストのそれぞれの要素に対してlength関数を適用したい」わけなので,もうひと工夫必要です。そこで使うのがapply系列のsapply関数です。この関数は,

sapply(リスト,関数)

という形で引数を与えてあげると,リストの各要素に関数を適用してくれます。これと同じことができるのがlapply関数です。lapply関数を使うと,結果の出力もリスト形式で返されます。ただ,ここでは語数が並んだベクトル形式のものを手に入れて,それをもとのデータフレーム(dat)に追加したいわけなので,sapply関数のほうがベターです。lapply関数にすると,そのあとリストをベクトルに直すunlist関数を使う必要があって二度手間になってしまうので。というわけで,

sapply(strsplit(as.character(dat$sentence), ” “), length)

こうしてあげれば「スペースで区切る-> 語数を数える -> ベクトル形式で結果をゲット」という作業が完了します。あとは,

dat$num.words<-sapply(strsplit(as.character(dat$sentence), ” “), length)

としてあげれば,datに新しくnum.wordsという列が追加され,そこにはsentenceの列に入っている英文の語数が格納されることになります。めでたしめでたし。といきたいところなのですが,最後におまけでもうひとつ。

上の書き方だと,いくつもの関数が入れ子状態になっていて,一見して作業がわかりにくいですよね?そこでパイプ演算子を使って同じことをもう少しわかりやすく書き直してあげます。

dat$sentence%>% #datの中のsentenceという列を取ってくる
as.character%>% #文字列型に変換
strsplit(. , ” “)%>% #スペースで区切る
sapply(., length) -> dat$num.words #リストの要素ごとに語数を数えてdatというデータフレームのnum.wordsという列にいれる

こうやって書くと,作業の過程が見えてわかりやすいですよね。ちなみにこのパイプ演算子はパッケージ依存です。dplyrやtidyrを使うときに使うやつですね。たぶんこれらのパッケージを読み込んでいればパイプ演算子も使えるようになっているはずです。もともとはmagrittrというパッケージに入っているのがパイプ演算子が%>%なんですよね(たしか)?

というわけでlapplyの出力をunlistしてできたできたと思っていたらsapply関数の存在に気づいてなんだよ二度手間じゃんかよって思ったのでブログ記事にしました。

なにをゆう たむらゆう。

おしまい。

 

 

 

[R] 欠損値を1つでも含む行を抽出

ものすごい初歩的なことだったのに,調べてもなかなかヒットせずに格闘したのでメモ。

RでNAを処理する方法はたくさんあって,ある特定の列にNAが含まれる行だけ引っ張ってくるなどは結構簡単だったりする

subset(dat, is.na(dat$A))

とかでいい。ただし,データフレームにある複数の変数の中で1つでもNAが入っているかどうかとなるとちょっとどうしたらいいんだこれは,となる。

na.omit(dat)としてNAが含まれている行を全削除すればいいのでは?となるかもしれないが,実は今扱っているデータがlong型のうえにかなり複雑なデータフレームになっていて,同じidが複数行にまたがってしまっているという状態。実験のデザインがかなり複雑なのでこれはこれで仕方がない。

つまり,複数行のうち1行でもNAがあるidは,NAが含まれない行でも削除しないといけない。そのためには,NAが含まれる行のidを特定する必要があるわけだ。そこで,欠損値を含む行を抽出し,その中からid列だけを取ってくるという手続きを取る必要がでてきた。こうすれば,あとはdplyrのfilter関数なり,subset関数なりでそのidが含まれる行をすべて抜いて新しいデータセットを作ればよい。

それで,この,NA行の特定をベクトル形式で返してくれる関数が,complete.casesという関数。is.na関数にデータフレームを渡すと,その結果は行列(matrix)形式になる。これはこれで,どの行のどの列にNAがあるかを確かめるのにいいのだけれど,こちらが欲しいのは,「何行目」にNAが含まれるのかという情報だけ。そこで,complete.cases関数を以下のような感じで使う。

subset(dat, complete.cases(dat)==F)

あるいは,

dat%>%
filter(complete.cases(dat)==F)%>%
select(id)

上の方法だと,結果はデータフレームだけど,下の方法だとid列を引っ張ってくるところまでやるので,これをなにか別の変数(ここではmissIDにしてみる)にいれてあげて,

subset(dat,id != missID)

とかやれば,id列でmissIDに該当しない行だけを抽出してくれる。下書き状態で放置されていたからとりあえず最後まで書いたけど,自分がなんのデータに対してこの手続をしていたのかはもう思い出せないw

データ分析業務ばかりやってるのは楽しいからいいんですけどね。

なにをゆう たむらゆう。

おしまい。

※追記(2017.03.11)

subset(dat,id != missID)

とやってもうまくいかないことがあるようです,というか多分うまくいきません(自分でやってみてダメだったので)。多分ですが原因の1つはmissIDがデータフレーム形式になっている場合。ベクトルになおしてください。もう1つの原因は,subsetなりdplyrのfilterなりで複数の条件を設定する場合に,参照先がベクトル形式の場合には通常の論理演算記号が機能しないことです。多分こちらのほうが大問題。時間が経ってから書いたからかこのことをすっかり忘れていましたすみません。正しくは%in%を使って,

subset(dat, !id %in% missID)

とします。この場合,データフレームの中の参照先の列名の前に!をつけます。これをつけないと「当てはまるもの」を取り出すことになります。

理論に暗示的知識が内包されたときのジレンマ

以前,教育効果を測定する目的で明示的知識と暗示的知識を測定し分けることの是非についてのエントリーを書きました。

https://tam07pb915.wordpress.com/2016/08/25/implicit-explicit-instruction/

そのときの結論は,「教育効果を測定するのに明示・暗示の話は持ち込まなくていいだろう」というものでした。ただ,理論のスコープが暗示的知識を含むととき,そうも簡単にいかない問題がそこにはあるなと最近(といっても書こうと思ってずっと書けてなかったので少し前)思ったので,その話を書きます。きっかけは以下の論文。

Zhang, X., & Lantolf, J. P. (2015). Natural or Artificial: Is the Route of L2 Development Teachable? Language Learning, 65, 152–180. doi:10.1111/lang.12094

ここで取り上げる理論とはいわゆる処理可能性理論(Processability Theory)です。これが理論足りうるかどうかはとりあえず置いてきます。処理可能性理論とは何かということは上記の論文を読んでいただくか,あるいは同じ号に提唱者のPienemannが書いた論文が載っていますのでそちらをお読み下さい。ざっくりいうと,学習者の言語発達は心理的・認知的な処理能力によって規定されていて,ある段階を飛び越えて次の段階に進んだりはしないという理論です。この理論と同じく紹介されるのが教授可能性仮説(Teachability Hypothesis)というものです(注1)。これは,教育的指導介入によって発達段階をスキップすることができず,学習者が今いる段階よりも上のレベル(正確には2レベル以上高いレベル)の言語規則を教授してもそれは習得されることはというものです。Zhang and Lantolf (2015)の論文は,この教授可能性仮説にそぐわないデータが得られたことを報告するというような趣旨の論文です。

こうした言語の発達段階や発達順序に関する研究が主たる関心としているものは,学習者の暗示的知識の発達であると考えられています。つまり,意識的な知識として知っているかどうか,明示的知識を持っているかどうか,ということではなく,暗示的な知識の発達に段階を規定するものです。例えばRod Ellisなんかは,暗示的知識の発達には発達段階による制約があるため,明示的な文法指導介入はそうした発達段階の制約を受けないと考えられる明示的知識の獲得を主たる目的とすべきであるという立場です。明示的知識は間接的に暗示的知識の習得を促す(weak-interface)というのが彼の立場なわけですから,この主張もうなずけます。

問題は,この「発達段階を教育的介入によってスキップできるかどうか」を問題にする場合,暗示的知識の測定が不可欠になってくるわけです。なぜなら,発達段階があるのは暗示的知識であって,明示的知識ではないと考えられているからです。実際,Zhang and Lantolf (2015)でも,guest editorのRod Ellisから「この研究の結果は明示的知識の発達を示しているだけで暗示的知識の発達であるとはいえないんじゃないか?」みたいなツッコミがあったそうです(p.174)。筆者たちの反論は,Pienemannたちが使っているような測定具と発達段階の決定規準(emergence criteria)を使っているのだから,もしこの研究がその点で批判されるのだとしたらそれは処理可能性理論や教授可能性仮説についても当てはまるじゃないかというような反論をしています。

で,一応Pienemann自身は同特集号の論文の中で,まず教授可能性仮説は処理可能性理論に含まれる必須の要素というわけではなく,理論というよりは実践の話で,いくつか研究でサポートされたからまぁプラクティカルにそうなんじゃねーのかみたいにしているだけで処理可能性理論はもっと緻密に作られた理論であるというようなことを言っています。つまり,教授可能性仮説は捨てても処理可能性理論は守られるっていう話なんですね。なんか強がりっぽいこと言ってますけど。でも多分なんですけど,SLA研究者のほとんどは処理可能性理論と教授可能性仮説に関連性あると思っているしむしろ理論の一部か派生かくらいには思ってるんじゃないですかね(実際僕もそう思ってました)?「みんな俺の理論を誤解している」ってそういうことなんでしょうか?百歩譲ってそうだったとしても,測定具の話は処理可能性理論にも及ぶわけなので,そこはちゃんと反論しなくてはいけませんよね。

測定具の話に関してPienemannは,elicited imitationとspontaneous productionを同一視してはいけない。elicited imitationはダメだがspontaneous proudctionは違うんだみたいなことを言っています。これって反論したようで実は全然反論できていなくて,前回も書きましたが,行動データで暗示的知識測定しようとしたらもう「産出データじゃ無理なんじゃね?」っていうのがここ最近の流れです。spontaneous productionってのが「elicited imitationとは違うものを測っている」というのならば,それが測っているものが暗示的知識かどうかも検証されないといけないですよね。でも,実際何が暗示的知識を測っているのかっていう問題の闇は深くて,そんな簡単なことではありません。

処理可能性理論のことを血眼になって研究している人ってこの問題どう考えているんですかね?もちろん,この問題は処理可能性理論についてだけではなくて,「言語発達の制約を受けるのは暗示的知識」という主張をするすべての研究者に当てはまります。この問題ってどうやったら論理的に,あるいは実証的に回避できるのか,有効なアイデアは考えてもパッと思いつきません。熟達度がそれほど高くなく,spontaneous productionで暗示的知識と弁別できないような明示的知識を使えないような学習者ならspontaneous productionでは暗示的知識を測定できるとかでしょうか?実際問題として処理可能性理論が対象にするような学習者は超高熟達度の学習者ではないわけですし。でもあまり有効な反論とはいえないですね。結局はパフォーマンス上に明示的知識の介入がないことを示さないといけないわけですから。うーむ。みなさんどう思います?

なにをゆう たむらゆう。

おしまい。

注1. Pienemannは同じ特集号の論文で,” …theTeachability Hypothesis is not a corollary of PT.” (p. 138)と言っていて,教授可能性仮説はPTの一部ではないようなことを言っています。