作成者別アーカイブ: Yu Tamura

アボカドとスモークサーモンと豆のサラダ

ここ最近料理の記事を全然アップしておらず,ついに名古屋の闇に飲まれて自炊を放棄したのかと思われた方もいらっしゃるかもしれませんが,そういうことではまったくなく,単純に写真撮ってもブログにあげるのがおっくになっていただけでした。

さて,そんな中ですが,先日,「これうますぎでは…?」という料理をひらめいてしまったので,記事に書いておきます。タイトルの通りで恐縮ですが,おつまみにもなるし,栄養も(きっと)抜群なサラダです。

たまたまアボカドがあって,そろそろ食べないとなと思っていて,スーパーで買い物をしていたら安く売っていたスモークサーモンが目に入り,「これはアボカドとスモークサーモンだな」と思って歩いていたら私が冷蔵庫に常備している「サラダに!まめ」が目にとまり,この3つでいったらいいのではとなったというわけです。

以下簡単な作り方です。

材料(2人前)

  • アボカド(1個)
  • サラダに!まめ(1袋)
  • スモークサーモン(50g-100gくらい…?)※スーパーでたまたま売ってたのでどのくらいの量だったか覚えてませんすみません
  • マヨネーズ(適量)
  • わさび(適量)
  • カマンベールチーズ(なくてもたぶんOKですがあったほうが断然旨いです)

作り方

  1. アボカドは種をとって縦に4等分し,皮のついた状態で1口大に切れ目をいれて皮を外します
  2. スモークサーモンは切り落としの場合は切り身をさらに小さく(3等分くらい)し,さくの場合は(スモークサーモンのさくってあるのかしら)そぎ切りしたあとに3等分くらいで(適当です)
  3. 1と2をボールやお皿にいれて,まめも追加して混ぜます。カマンベールチーズをいれるときはこのタイミングで小さくちぎるか切るかしていれます
  4. 味付けはわさびマヨネーズ。両方そのまま入れてもいいですが,わさびがまざりにくいので先に別の皿でわさびとマヨネーズをよく混ぜ合わせてから入れるとわさびが均等に混ざると思います
  5. 完成!

自炊飯使用なので深皿で混ぜてそのまま食べました。よって写真が汚いです。

ドレッシングは他にも考えられるかと思いますが,個人的にはわさびマヨネーズが簡単(チューブのわさびとマヨネーズくらいなら冷蔵庫に入ってる確率が高そう)でいいかなと思っています。豆があまり好きじゃな人は豆感が強くてお気に召さないかもしれませんが,私はこのサラダに!まめはいつも冷蔵庫にいれていて,トマトソース作るときに入れたりカレーにいれたりこうしてサラダで食べたりと大活躍している食材の1つです(1パック100円くらいです)。アボカドはたまたま安くなっていましたがあまりレパートリーもないしで使うのに困っていました。今回の豆とスモークサーモンと一緒にわさびマヨネーズで和えるというアイデアは結構気に入ったので,おもてなし料理的にも使っていけるかなと思ったりしています。

ようやく新しいiPhone8Plusを開通させたので,その記事もまた近いうちに書こうかなと思います。

そんなわけで久しぶりの料理記事でした。

なにをゆう たむらゆう

おしまい。

 

広告

母語話者との差は埋めるべき?

昨日(日付変わったので一昨日),私の博論の内容について発表する機会をいただきました。発表の時間は短かったのでかいつまんで結果と解釈を提示する程度でしたが,その中でいただいたコメントに対して,一晩考えて私なりに少し丁寧にここに答えを書いておこうと思うに至りました。

私の博論では,母語話者と学習者のある課題についての結果を比較して,母語話者と学習者で意味と形式のマッピングが異なるところに焦点をあてています。

そこで,母語話者とは異なる点について,「どうやったらその差を埋めることができるか」,「教え方の工夫などで解決可能か」という点について,ご質問をいただきました。おそらく,背景には「母語話者に少しでも近づくこと」が英語指導の目標になっているのだという価値観があるのかと想像しますが,私が取り組んでいる言語習得や言語処理に関わる研究については,そうした母語話者としての差を「埋める必要があるもの」であるとはまったく捉えていません。これは,(a) 費用対効果と対象としている言語現象,という話と,(b) native-normという価値観,という話の2つが絡み合った問題なのかなと思っています。

(a)の費用対効果については,私の対象としている言語現象が,「誰もが英語学習を通して明示的な指導を受けたことがあると言い切ってもよい」ものであるか,逆に「習ったことも,あるいは聞いたことすらもないようなもの」を扱っているからです。博士論文は1点目で,複数形の形態素です。「名詞に-sがつけば複数」という至極シンプルな規則は,英語学習者なら初級者でも「知っている」はずです。しかし,それがどういった「意味」と関連付けられているのか,博論ではどのように「数(number)」と関連付けられているかを問題にしています。そして,それはとても根本的な現象を扱っているように思えて,実は英語学習の目標を考えれば取るに足らない些細なことで,「名詞に-sがつけば複数」とだけ知っていればそこまで問題にならないことだと思っていますし,言語使用場面で,その使用目的に照らして,目的を達成するために私の行った課題で明らかになるようなものが問題になるとも正直あまり思っていません。実際,複数形の形態素のせいで英語使用に苦労するということはあまりないでしょう。

また,「習ったことも聞いたこともない」ようなことについては,「習ったことがないからできない」という考えもあるかもしれませんが(後述しますが実際はそうではないことも有りえます),その前に「なぜ教えられていないのか」を考える必要があるのではないかと思っています。つまり,学習英文法として取り上げられていないのは,そこに含める必要性がないことが含意されているように思うのです。そのレベルの現象について,例えば特別な指導を施すことで母語話者との差を埋めることができても,リソースの制約がある中で何を取り上げ,何を取り上げないのかという意思決定をしなければならないときに,他に指導すべき事項を差し置いて「言語のある特定的な側面について母語話者との差を埋める」ことを選択することは妥当でしょうか。

例えば,Tamura et al. (2016)で扱ったtough構文で(1a)は適格文であるのに対して,(1b)が非適格文であることやその背後に働く原理を「説明する」ことは,「一般的な」英語指導の文脈で必要なことでしょうか。

(1a)  He said that his wife was difficult to please.

(1b) * My younger sister was difficult to be an actress.

 

ちなみに,このような非文に対して,日本語を第一言語とする英語学習者は主観的には規則を説明できなくとも,「なんとなく」(1b)が非文であるというようなことを偶然確率よりも高い確率で判断することができることがわかっています(ただし,その判断に要する時間は長いです)。

2点目,(b)native-normという価値観については,なんで母語話者との差を「埋める必要があるものである」と考えているのだろうと思ってしまいます。もちろん,自分の信念としてそのように思うことを否定したりはしませんが,学習者にそれを課すことには疑問があります。この観点はなんら新しいことでもありませんし,multicompetenceという言葉とともに語られたりもしています。「英語教師の仕事は学習者の英語力を伸ばすことだ」ということに対しても,私はそこまで否定的に捉えているわけではありませんが(注1),「英語教師の仕事は学習者の英語力を限りなく母語話者のそれと差異のないものにすることだ」と言われるとそれは賛同しかねます。これは,

明示・暗示の測定と指導法効果研究

というエントリーで書いたこととも関係あるかと思います。私が博論でやった研究は,ミリ秒レベルの反応時間の差で,さらにこれは非常に特殊な実験環境による言語の処理で,その意味ではいわゆる生態学的妥当性は低いでしょう。ただ,そうでもしなければtapできない側面なのです。そこまでしないと見えないレベルの差の有無には教育的示唆などありませんし,そのレベルの差を「埋めるべきもの」であるというようにも考えていません。もちろん,差が生まれる要因には興味がありますし,それを探求することについて意義があることだと思っているのでそういう研究をしています。つまり,「埋められない差があること」を私は問題だとはまったく思っていませんし,それが仮に存在することが明らかになったとしても,それはむしろ「教育的示唆」という意味ではプラスに働くことすらあると思っています。ここが費用対効果の話とも絡んでくるのですが,

3単現の-(e)sは口をついて出るくらいまで練習 

と似たような問題で,母語話者との埋められない微細な痕跡が残るような文法項目について,熱心に誤りを訂正したり明示的な説明をしたりすることはリソースの無駄遣いと言ってもよいでしょう。そういうことに時間を使うくらいなら,もっとやるべきことはたくさんあるはずです。これは,「教えなくても勝手に学習させればよい」という議論を展開したいというわけではありません。限られたリソースの中では「教える」時間は限られているので,「引き算の思考」をしたほうが有益ではないかと思っているのです。つまり,「教えても教えても難しい」あるいは「どう頑張っても母語話者のような正確性を身につけることは難しい」というものが明らかになれば,それについては,リソースの配分をやや減らして,「-sがついたら複数だよ」って知っていれば良いという程度にするということができるのではないでしょうか。あるいは,「教えなくてもある程度はできそうだ」ということがわかれば,その部分についてもリソースを減らして良いという判断ができるはずです。ただし,「教えないとできない」,「どのように教えたらできるのか」,という見方をしていると,それが仮に余分なリソースを必要とするものであるとすれば,そうした結果が明らかになればなるほど「やらないといけないこと」が増えてしまい,結局その負担を被るのは英語教師自身になります(注2)。もちろん,「リソースが有効に活用されているのか」を精査することは必要でしょう。それじゃあ効率が悪いから,別の方法を使いましょうという提案については,リソースを増やすことにはつながっていませんし,それでむしろ効率化して余剰が生まれるかもしれません。

そうした現状で「工夫を凝らした特殊な指導を与えたらテストの点数が有意に向上した」みたいなことをやったりするのにそこまで躍起になるのは,どうしてなのだろう,と不思議に思うこともあります。また,ある1つの文法項目が何らかの方法で測定された際に,その数値が「統計的に有意に向上した」や「効果量◯◯だった」というような事実の積み重ねで,私が見ていたような「差」を埋めることができるとも思っていません。

実験研究における母語話者との比較は,母語話者が常に「正しい」とも限りません。むしろ「母語話者だからこそ」学習者とは違う結果になったということも有りえます。学習者に実施する課題とまったく同じ課題を母語話者にも課せば,概してそれらは母語話者にとっては「簡単」な課題となりがちですし,そのときに予想とは違う(こちらが想定していないストラテジーを使って文や語を処理する)ことが起こることは十分にありえる話です。そうした意味でも,nativeが正しく,もし仮にL2と何らかの差異が見られたときにそれが必ずしもL2が何か欠陥があるということ示していないかもしれないということです。

指導の文脈における母語話者との比較については,結局は,目的論・目標論の話とも関わってくる問題ですし,仮に英語能力の伸長が目標であるという合意形成ができたとしても,それが「母語話者レベルではなくてもよい」となったときにどのような目標を設定するのかという話にはなってきます。そのあたりについては,私個人としては「タスク・ベースの指導」という考え方を採用したい問題であると思っています。つまり,学習者が教室の外でも「それなりに」機能すること(彼ら・彼女らが直面した問題を自律的に解決すること)ができるかどうかを判断の規準にするということです。これを導入するには色々クリアすべきハードルがあることは事実ですが。

ということで,集合写真に僕が写っていなかった(早めにお暇したのでそもそも写真が撮られたことすら知らなかった)ことで仲間はずれにされたのではないか,いじめられてやしないか,と福田さんにご心配いただけたりもしましたが,個人的には発表してコメントをいただけたことで,私の考えを整理することにもなりましたので,収穫はあったと感じています。今日は午後からだと勘違いしていて午前中の発表を3つとも聞き逃してしまうという失態を犯してしまい(悠長に俺の空でラーメン食べている場合ではありませんでした),申し訳ありませんでした。

午後の最後の2つの発表(新谷先生と鈴木渉先生)については,「習得」・「学習」といったときに習得・学習されたものはいったいなんだったのだろうというのが気になったりしていました(おそらく須田先生が「それってuseじゃないの?」とご質問なさったのも近いと思います)(注3)。1日目については,comprehensibilityってなんなんだろうと思ったので,その話はまたいつか。

ではまた。

なにをゆう たむらゆう。

おしまい。


注1. これについてさえ,「英語教育の目標は英語力を伸ばすことである」と言い換えたとき,その主張が英語教師の大多数に受け入れられているというようには思っていません。

注2. その「教える」が明示的文法指導といわれるようなものであったときの別の問題としては「文法の明示的指導研究について思うこと」を参照。

注3. 瞬発力が足りなくて,その場でうまく言葉にすることができなかったのですが,あとから考えて整理して自分で理解できたのでここに書きました。

Scrivenerで相互参照と連番作成

私は,論文執筆にScrivenerという有料のソフトウェアを使っています(Mac版)。バインダー機能とか語数の管理とか,色々便利なことはあるのですが(参考:Scrivener — A perfect program for dissertation writing),今日は論文執筆中にこれできてほしいと思った機能のやり方を覚えたので自分的メモを残しておきます。

私が文法を主に扱う論文を書くことが多いからなのかもしれませんが,例文をたくさん論文の中に挿入するんですね。以下のような感じで。

In (1), the omission of the plural morpheme makes the sentence ungrammatical.

(1) * I should have finished these thing by yesterday.

私の能力不足なのかもしれませんが,例文を後から足したり引いたりとかもしますし,また頭から順番に書いていくというわけでもないので,番号がずれてしまうことがあります。その対処法として,Xとかを使って最初に書くときはすべて番号をXで置き換えて,最終的にScrivenerからWordに原稿を出力してフォーマットなどを調整する際に最初から読み直して番号を振っていくという方法を取っていました。図表番号にも同じようなことをしていて,Table X shows…as illustrated in Figure X,というように書いておいてからあとで直していました。ただ,この方法だとやっぱり番号がずれたりしてしまうことがあって,自分でも気づかずに査読者に指摘されることもしばしばありました。図表に関しては,Wordでは図表番号の挿入という機能があるので,それを使うようにしています。図表番号の挿入を使っていれば,相互参照の挿入もできるみたいですね。で,例文でもこれを応用したりマクロを使ったりするとそういうことができるようなのです。言語学では例文がたくさん挿入されますから,そういった方たちにとっては死活問題ですよね。

参考

Wordで例文の番号を自動で連番にする

研究者のための Word 利用法 (3)

統語論恐怖症: Wordで連番機能を使う

ただし,これもScrivenerの中でできるならそうしてしまいたいわけです。そこで,「Scrivener 相互参照」でぐぐってみても,外部ファイルの参照みたいな記事はあるのですが,本文中で連番を作成したり相互参照をするよう方法は見つけられず。そこで,「scrivener cross」まで打つと,次に「reference」が出てきます。

参考

Unvexed: Stuff that Works: How to do cross-references in Scrivener

Has anyone figured out a way of cross-referencing examples in the …

A better way to force sequential ordering of numbered items

簡単に言うと<$n>タグを使うと,コンパイルするときに自動で連番作成してくれて,相互参照されるようになっているようです。<$n:ex>,<$n:fig>, <$n:tab>のようにすることで,ex,fig,tabごとに連番を作ってくれるみたいです。さきほどの例でいえば,<$n:ex:first>,<$n:ex:second>のようにしてあげれば,そこに数字が自動的に挿入されるという仕組みです。手でいちいちこのタグを打ち込むのは面倒だと思う方もいるかもしれませんが,私としては結構画期的だと思うので使っていきたいです。

一つ問題は,先ほどのタグは純粋にアラビア数字にしか置換されないということです。つまり,

In <$n:ex:first>, the omission of the plural morpheme makes the sentence ungrammatical.

<$n:ex:first> * I should have finished these thing by yesterday.

のようにscrivener上で書いたものをコンパイルすると,出力は次のようになってしまいます。

 

In 1, the omission of the plural morpheme makes the sentence ungrammatical.

1 * I should have finished these thing by yesterday.

(1)のようにしたいときは,タグをさらに丸括弧で囲んで,(<$n:ex:first>)としなくてはいけません。これはそこまで厄介ではありませんが,少し厄介なのは,同じ番号を繰り返して,(1a), (1b)のようなものを作ることが出来ない点です(注1)。その場合,exの部分を別のキーワードに設定して,(<$n:ex1:first>),(<$n:ex2:first>)のようにすれば,それぞれ初出なら1が出てきますから,そこにaやbを自分で書き足して,(<$n:ex1:first>a),(<$n:ex2:first>b)とすれば,(1a),(1b),のような連番作成はおそらく可能でしょう。これを使うことの問題は,そもそも例文の「グループ」という概念を壊すことになってしまうので,どのキーワードを使えば何の数字が出てくるかを自分で把握しながらタグを使わないといけない点です。これは少しめんどくさそうです。もちろん,アルファベットの見出しを用いないですべて連番にすることはできるといえばできるので,そちらでも良いかもしれません(そもそも私自身数字とアルファベットの使い分けに明確なルールを持っているわけでもないです)。

ということで,この連番作成機能は役に立ちそうなので,メモとして書いておきました。今週指導教官に初稿を提出することになっているので,ラストスパート頑張ります。

なにをゆう たむらゆう

おしまい。

 

追記(注1):今考えれば,同じタグを使って(<$n:ex1:first>a),(<$n:ex1:first>b)とかやればいいだけでした…

CAFの(相関と)発達の順序

いま,とある実践報告論文を書いていて(共著),頭の中がこんがらがってきたので整理するために書いておきます。

CAFの相関と発達順序の話。こういう論文があります。

Koizumi, R., & In’nami, Y. (2014). Modeling complexity, accuracy, and fluency of Japanese learners of English: A structural equation modeling approach. JALT Journal, 36, 25–46.

5つの異なるスピーキングタスクでSyntactic Complexity, Accuracy, Speed Fluency, Repair Fluencyの指標をそれぞれ1つずつで共分散構造分析をしましたよという論文ですざっくりいうと。もともとはSyntactic Complexityだけ2つの指標だったり,CAF因子の上にspeaking proficiencyを置くモデルだったりspeaking proficiencyにすべての指標がloadしているモデルだったりも比較したけどCAF因子仮定したモデルが一番良かったという話ですざっくりいうと。それで,

「CAFはあります!」

「ねーよ」

っていう話は後輩のCAF警察に任せるとして,結果の解釈の話です。4つの因子間の相関をもとに色々議論している箇所があって(How Are CAF Interrelated?の節),流暢に話す(単位時間あたりの発話語数が多い)学習者は修正回数も多く(Repair Fluencyも高い),なおかつ正確さも高くて統語的に複雑な文(AS Unitあたりの節の数が多い文)を産出するそうです。で,その直後に,

Further, the results also indicate that as learners progress from beginning to lower intermediate levels, they develop the ability to produce such speech, thereby gradually improving SC, accuracy, and speed fluency (although not necessarily synchronously).

と書いてあります。熟達度があがると,徐々に複雑さも正確さも発話スピードもあがるよと。うんうん。まぁ相関あるってことはある数値が高くなると他の数値も高くなるということだからそういうことって素直に解釈して…いいのかな?ちなみに,「結果」とは,統語的複雑さと正確さの相関は= .88,統語的複雑さと発話スピードは= .63で,正確さと発話スピードの因子間相関はそれほど高くなく,= .35である,ということを指していると考えられます。その直後,

It is speculated that improvement in fluency may lead to enhanced SC, which may result in heightened accuracy; that is, when learners learn to speak faster, they may gradually come to use a greater number of clauses and longer units (sentences) and subsequently may produce more accurate utterances.

むむむ??

いや,言っていることがもっともらしいので,きっとそうなんだろうなとは思いつつ,この因子間相関から流暢さが先に発達してその後に文が複雑になって最終的には正確さもあがってくるって言えるかなぁって考えてしまいます。いや,きっとそうなんだろうと思いますし,すごくしっくりくる説明なんですよ。ただ,このspeculationと因子間相関の間に見えないギャップみたいなものを感じてしまっていて,そのギャップを自分の中の「そうなんだろうな」っていうやつで勝手に埋めてしまっている感じです。なんなんでしょうねこのもやっと感。

流暢さというのは単位時間あたりの語数なので,統語的複雑さがあがると(節の数が増えると)必然的に語数も増えるという傾向はあるでしょう。ただし,「単位時間あたりの」というのがポイントで,すごーくゆっくり,だけど節の数が多い発話をすることは論理的には可能なんですよね。

1分間で,1文が(話を簡単にするためにAS Unitではなく文にします)5語からなる文(I like soccer very much)みたいなものを5つ発話したとすると,合計は25語で,60で割ると0.416という発話スピード。一方で,1文の中に節が3つあるような文(I think that she likes playing soccer)を2文しか発話できなかったとすると合計は14語で60で割ると0.23…で流暢さは落ちる。一方で,後者の文は1文あたり節が3つで,前者の文は節が1つなので,統語的複雑さは後者のほうが上。という感じ。

ただし,統語的複雑さと発話スピードの相関は.63なので,そういうパターンはほとんどなかったということになります。対象が中高生の初級者だということを考えても,節の埋め込みがそんなに多い文を頭ひねって作り出せるかっていうとそんなに現実的ではない気ももちろんします。

正確さとスピードに相関があまりない(ないわけじゃない)というのはまぁうなずけて,スピードが早くても正確じゃない人もいれば,逆にスピードが遅くても正確というパターンもあるからですよね。ただしスピードが遅ければ遅いほど正確さがあがるという関係が見られるわけでもないので,多少は流暢ならまぁまぁ正確さもあるかもね,くらいの感じなのでしょう。

よくわからなくなってきました。最初に疑問に思っていたのは,流暢さがある程度発達すると複雑さが上がり,そして複雑さがあがってくると正確さもあがるというような発達を仮定したとき,それがデータによって示されるというのはどういうことなのだろうということでした。

多分,

  1. 流暢さの値が高くとも複雑さや正確さの値は高くない(そこに相関がない)という状態があり,
  2. 次に同じ学習者群(または最初の学習者集団よりも熟達度が高い学習者)が時間を経たとき(発達したとき)に,流暢さと複雑さの値には相関があるが,流暢さと正確さに,複雑さと正確さにも相関がないということが観察され,
  3. その後,またそれよりも時間を経たときに,複雑さと正確さの相関が高くなり,流暢さと正確さの相関もちょっと高くなる,ただし正確さと流暢さの間には高い相関はない

みたいなデータが得られたとしたら,「なるほど。流暢さ,複雑さ,正確さ」という順番で発達していくのかなぁ,ということが頭に浮かびます。ただ,横断的でもなく,縦断的でもない1つの集団のデータの因子間相関からはいまいち「発達」ということをストレートに解釈しにくいよなぁと私には思えます(あるいは私の頭が悪いからかもしれません)。

先ほどの因子間相関だと,まずは正確に話そう。正確に話せるようになると,複雑さもあがってくるだろう(正確さと複雑さの相関が高くなる),複雑さがあがると節の数も増えるので流暢さもあがってくるだろう(複雑さと流暢さの相関が高くなる),というところまでは(他のことを色々無視していれば)いけそうな気もしてきます。ただ,最終的には正確さと流暢さの相関がなくなっていくことにならなければいけないので,ある程度複雑さがあがって流暢さもあがると,実は正確さは落ちていくのだーとか言わなくてはいけなくなります。なので,この説明はやや「きれいさ」が落ちるかなとは思います。

やっぱり,語数がのび,節の数が増え,そして正確になる,という仮説のほうが正しそうです。いや,そうなんです,正しそうなんですけど,でも「実際にそういう仕組みになっている」といえるためにはどういうデータが得られないといけないのかな,ということを考えた時,そのときに浮かぶイメージと因子間相関の間のギャップにもやもやしたのでした(たぶん頭が悪い)。

なにをゆう たむらゆう。

おしまい。

 

 

Box 50GB終了?

オンラインストレージサービスの1つとして,boxというやつを使っています。もともとはDropboxだけしか使っていなかったのですが,何かのキャンペーンで50GB無料で使えていたので,重宝していました。ところが,昨日いきなり以下のようなメールがきました。

要するに,10GBの容量超えてるからアップグレードしろというもの。無料で使える容量は10GBなので,50GB無料のサービスをやめたってことなんですね。それにしても,そういう連絡もなしでいきなりアップグレードしろっていうのはなんだか親切心にかけるよなぁと思いつつ。Boxに入れていたデータの移行を考えなくてはいけなくなりました。

Dropboxも有料プランではないので容量は7.2GBで,SPECTREを買ってからはOneDriveも使いだしたので,それも使っています。ただ,OneDriveはOffice365のサブスクリプションサービスを利用しないと無料では5GBしか使えません。そろそろその期限が切れますが,かといってじゃあOneDriveの1TB目当てでOffice365更新するかなっていうとそれも迷う所。Dropboxの1TBでもいいのかなぁとか色々迷っていたら,アメリカに留学していたときに在籍していた大学がOffice365 for Educationを契約していることが判明。私がいた頃にはたぶんまだそういうサービスはなかったように記憶していますが,修了してもポータルサイトにはアクセスでき,メールアドレスも生きていました。そしていつの頃からか,ウェブメールがOutlookになり,Officeオンラインが使えるようになり,なんと最新版のOfficeもインストールできるようになっていました。聞いたこともないアプリもたくさん入っているのですが,全然使う気にはなってません(苦笑)。

ということで,ラッキーなところでOneDriveの容量を確保できたのでそちらでしばらくはいいかな?という感じで落ち着きました。いまデータ移行中です。

なにをゆう たむらゆう。

おしまい。

 

Visual World Paradigmの分析

だいぶ前に書きかけで放置していた記事の更新です。

7月1日,2日で言語科学会に行ってきました。心理言語系の発表が多く,講演やシンポジウムでの発表も含めて,Visual World Paradigm(以下,VWP)という手法を用いた研究が結構ありました。このVWPは,ざっくりいうと主に音声で言語刺激を与え,それを処理している最中の実験参与者の視線を計測するという手法です。このとき,参与者は主に視覚提示されたいくつかの絵や写真を見ています。そこで,どこをどれくらい見ているか,あるいはどのタイミングでどこに目線がいきやすくなるのかを観察することで,人間の言語処理の仕組みを明らかにしようとするわけです。

で,そこですごく気になったのが分析方法。普通の文処理中の視線計測実験では,文のどこ(どの単語,句)をどれくらい見ているかなどを分析しますが,VWPでは音声データが流れていく時間の経過とともに変化する視線の動きを追っているわけで,時系列データになります。文であれば,画面上に1行で提示できるほどの長さが限界ですので,多くとも10-15語程度,その中で,分析の対象となる区域は2-3程度だと思います(注1 )。

ところが,VWPの人たちってまずこの区切り方がめちゃっくちゃ恣意的だったりします。それでもって,25msとか50msごとにグラフに点を売ったりしているわけです(eg., Ito et al., 2017, BLC)。え?待って?てことは50msごとにモデル作ってそれぞれで「検定」っぽいことしているわけ?LME(GLMM)使ってるからどうのこうのとか言う問題じゃなく,その分析の仕方っておかしくないですか?要するにt検定を数十回繰り返しているのと同じわけで,そんなことしたら第1種の過誤が飛躍的に上昇してしまうはずですよね(注2)?

たまたまBLCで見つけたので他意はまったくないのですが,Ito et al. (2017)ではその部分に対して以下のような記述があります。

This way of analysing the time-course increases the likelihood of Type I errors, but we note that the differences reported below show consistently reliable effects over multiple bins.

確かに論文中の図をみると,条件ごとの傾向がかなりはっきり出ているわけですが,だからといってそんな50msごとに「有意!有意!」みたいなことやるのは正当化されないでしょう。だって,繰り返しが多いので有意水準をめちゃくちゃ保守的にしますなんてことはやってなくて,t値が2超えたら有意ってことでいくんでよろしくとかやってるのですから。

VWPは手法としてはすごく面白いのだけれど,分析の手法が全然追いついていないのではないかというような印象です。このパラダイムで分析をしていくためにはもともとの注視時間のデータを割合にする(つまりある単位で区切ったときに,その単位時間のなかでどの領域をどれほどの割合で注視しているかというデータにしている)ということがおそらく不可欠だからかもしれません。そうではないと,視線計測の時系列データから興味関心のあるデータをうまく取り出すことができないからです。もっといい方法ないのかなと思うのですが…

もし仮に単位時間を恣意的に設定して「観測点」のように捉えることは出発点としてOKだとしても,それはやっぱり時系列データ分析の手法を持ってくるほうがいいように思います。以下の記事のような考え方です。

二つの時系列データの間に「差」があるか判断するには

自分でこの時系列のデータ分析を実装する技術を持ち合わせているわけではないのですが(そもそも視線計測のデータセットを見たことがないのであまりイメージも浮かばない),誤差による上下動があるなかでの特定の条件での「変化点」を検知したり,あるいは区域ごとではなく「全体として」プロセスが異なることを分析するような考え方ができたらいいのではと思います。区域ごとに区切って分析するとはいえ,前の状態の影響を一切受けずに次の状態が決まるわけではなく,前の状態があるから次の状態に移行するわけで。たぶんこれって視線計測装置とか文処理にかぎらず,時系列になっている(観測点が時系列上に複数並ぶ)データに対してはすべて当てはまると思うんですよね。longitudinal studyとかも含めて。

私も結局はエンドユーザーなので,自分がそういうデータセットを前にしたときにうまく分析して解釈できる自信があるというわけではないのですが,なんかもやもやするなぁと思いながらずっと発表を聞いていたのでした。

なにをゆう たむらゆう。

おしまい。

 

注1. もっと解像度の低い視線計測装置だとヒートマップみたいなもので視覚的にどの辺を多く見ていたかとかやることもあるかと思います。パッセージ読んでるときの視線とか。

注2. これはもちろん自己ペース読み課題の分析にも当てはまるのでブーメランです。

「タスク本」ができるまで

大修館書店から,『タスク・ベースの英語指導ーTBLTの理解と実践』という本が出版されます。この本は,名城大学の松村昌紀先生が編著者で,私も一部の章を執筆させていただきました。

私のところにも,出版よりも一足早く著者見本が送られてきました。実際にこうして製本されたものを手に取ると,いよいよだなという気持ちになります。今日は,「出版記念」(?)ということで,この本に対する思い(出)を綴っておこうと思います。長くなりそうな予感がしていますがお付き合いください。

この本に関わらせていただくことができたのは,色々な縁があったからです。私が名古屋に来て間もないある日,この本の執筆者の1人である福田さんに,「名古屋でやってる研究会があるんだけど興味ない?」と言われました。私は自分が知らない人ばかりの場所に行くのがとても苦手なので,実はその時はあまり参加に前向きではありませんでした。しかし,1回だけでも行ってみようと思い福田さんに連れられて参加しました。実は,その研究会を主催していたのが,タスク本の編著者である名城大学の松村先生だったのです。

もちろん,『タスクを活用した英語授業のデザイン』や『英語教育を知る58の鍵』などの著書で知られる松村先生のお名前は存じ上げていましたが,お会いするのは初めてのことでした。

行ってみるとその研究会はとてもアットホームでありながら,知的にレベルの高い議論が繰り広げられ,大変刺激的な経験をすることができました。松村先生は,初めて参加した私のことも快く迎え入れてくれ,私は今ではその研究会に毎月参加する「常連メンバー」となっています。

私は,松村先生が2012年に出版された前述の『タスクを活用した英語授業のデザイン』を読んでとても感銘を受けた多くの方々のうちの1人です。修士論文の研究もタスクに関するものでしたから,Task-based Language Teaching (TBLT)に関連する書籍や論文も読んでいましたし,松村先生がお持ちの英語教育に対する「思い」や「理念」のようなものに共感することも多かったです。

私が研究会に初めて参加してから1年ほどが経った2015年の4月から,Michael LongのSecond Language Acquisition and Task-Based Language Teachingという本を研究会で読むことになりました。この本が出た,そしてこれを読んだということがなかったら,もしかすると私達の本が出版されることもなかったかもしれません。確か,2015年の秋冬頃に,松村さんが「タスクの本を出そう」というようなことを仰っていて,「その時には福田くんと田村くんもぜひ書いてほしい」ということを仰っていただいたような記憶があります。もちろん,それは研究会の合間の他愛もない会話の一場面で,当時は本当に出版することになるとは,ましてや私も執筆者の1人として名前を連ねることになるとは夢にも思っていませんでした。

そして,2015年末に,浦野先生が「あの夜」と呼ぶ日がやってきます。

私は,松村先生とも浦野先生とも仲良くさせていただいていて,その日も浦野先生が名古屋にいらっしゃるということで,福田さんや数人の先生方と一緒に名古屋でお会いすることになっていました。そこに,松村先生も合流し,「松村先生と浦野先生が同じ宴席にいる」ということをとても新鮮に感じたように記憶しています。そして,浦野先生いわく「『あの夜』に俺が松村さんを(タスク本の出版に向けて)けしかけた」そうです(笑)。そして,2016年1月のセンター試験の頃,松村先生が企画案を作ってくださり,その後タイトルや内容についての交渉があり,2016年の5月頃から執筆をスタートさせたように記憶しています。

私の担当は,TBLTに関する疑問などに答えながらその解決策を提示するという主旨の第4章と,中学校・高等学校での実践に関する第7章でした。特に後者の執筆は大変難航を極め,私が第1稿を著者の方々にお送りしたときには「各章25ページ」という制限を大幅に超えた70ページにもなる原稿でした(笑)。内容的にはゆるやかな縛りしかなく,本当に私の「書きたいこと」,「言いたいこと」を詰め込みすぎてしまったために,「あれも書いておこう」,「これにも言及しておかなくては」とどんどんと原稿が冗長になっていたのでした。松村先生には,文字通り「ざくざくと」私の原稿を「斬って」いただき,最終的にはページ制限をオーバーしつつもなんとかOKサインをもらえたのでした。

松村先生と一緒に仕事をしたことで,「少しでも良いものに仕上げるためなら労力は厭わない」というプロフェッショナリティやプライドを間近に感じることができ,本当に刺激的な1年間だったなと思います。原稿の書き直しは何度もしましたし,校正の段階で松村先生からの手書きのコメントつきの校正紙を見てあまりのコメントの多さにそのままそっと封筒に戻して頭を抱えたこともありました。それはまさに,「査読コメントのファイルを開いてすぐ閉じる」ときのような気持ちでした。そこまでのエネルギーを注いで他人の原稿を読むことは,なかなか真似できることではありません。そんなときでも,「僕は自分の書いた部分はそれ(他の人の書いた文章にコメントしている)以上に書き直しをしているよ」とおっしゃっていただいたり,「僕1人では絶対に書けなかったと思えるような内容だから本当によかった」と励ましていただきました。著者陣の中でも一番未熟な私をそのように厳しくも温かく導いてくださり,本当に感謝の念に堪えません。

執筆する中で私が一番苦しかったのは,「私の原稿は松村先生の本を上回るものになっているのだろうか。新しい視点は提示できているのだろうか。焼き直しになってはいないだろうか」ということでした。私が書くからには,「自分にしかできない仕事」をしないと意味がありません。そうでないと,私が書く意味がなくなってしまうからです。そうした思いから,特に第7章の方では,具体例や実践者としての自分のビリーフのようなものを織り交ぜながら書くようにしました。

昨日の中部地区英語教育学会でいろいろな方とお話させていただいて,本に書いた内容でもまだ不十分というか,「十分に消化しきれない。もやもやが残る」というような部分もお読みいただきながらきっと出てくるだろうなと今になっては思います。ただ,それでも執筆当時は私の全力で書いた文章だったのです。この点については,今後の研究の課題として引き受けて,乗り越えていけるようにしようと思っています。

長くなりましたが,最後に。

私はアメリカの修士課程に在籍していたころからブログで文章を書くようになりました。今でも2011, 2012年あたりの記事を見ていると,本当に恥ずかしいような文章を(それも結構な頻度)で書いていたのだなと思います。WordPressに移行し,日本に帰ってきてからはこの「英語教育0.2」というブログをスタートさせましたが,アメリカにいた頃は「田村の日本語はめちゃくちゃだ」「アメリカにいるから日本語の文章の書き方を知らないんじゃないか」といったような「お叱り」を受けるようなこともしばしばありました。そんな私が,主にTwitterを通じてたくさんの方にお世話になり,あれから5年ほどの月日を経て,商業媒体に日本語の文章を載せることになったなんて,なんだか不思議なこともあるものですね。

いただいたチャンスを無駄にせず,今後につなげていけるよう,これからも一層頑張っていきたいと思います。

なにをゆう たむらゆう

おしまい。