![]() |
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
【重要なお知らせ】お問い合わせフォーム故障中につき、直接メール(koudoku@toshoshimbun.com)かお電話にてバックナンバー・定期購読の御注文をお願い致します。 |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
評者◆粥川準二
話題のAI「ChatGPT」を試してみた。学問研究や教育への影響は?――分野によって得られるメリットは違うのかもしれない
No.3591 ・ 2023年05月20日
![]()
■ここ数カ月、メディアをウォッチしていて「ChatGPT」という文字を見ない日はない。ChatGPTとはいうまでもなく、米企業OpenAI社が開発し、昨年秋に公開した人工知能チャットボットである。質問に対して、丁寧な文章で回答することで、注目を集めている。類似のサービスを含めて、「生成AI」や「対話型AI」と呼ばれることもある。
筆者が興味あるのは当然ながら、それらが学問研究や教育に対してどのように影響するか、ということだ。 さっそく試してみた。社会学の基本的概念である「社会的事実」とは何か、を尋ねてみたところ、ChatGPTは「社会的な合意や規範に基づいて存在する現象や事象のこと」だと答えた。それは社会学で一般的な「社会的事実」の定義ではない。 次に「情報源をin‐text citation(文中引用)とreferences(参考文献)で示しながら、記述してください。語尾は「である」にしてください」と指示してみると、「社会的事実とは、社会全体で共有される客観的な現象や規範のことであり、「社会的規範や価値観、慣習、法律など、個人の主観や意志とは独立に、社会全体で普遍的に存在する現象」である(デュルケーム,1895)」とChatGPTは答えた。これは一見、各種辞書やこの概念の考案者エミール・デュルケームの『社会学的方法の規準』(講談社、二〇一八年、原著一八九五年)の記述に近いようだが、個人を拘束するもの、という重要な要素が抜けている。しかもカギカッコ付きで直接引用に見える記述は『社会学的方法の規準』にはない。また、参考文献は「デュルケーム,E.(1895).Les regles de la methode sociologique. Paris:Alcan.」となっている。学生がレポートでこのように記述していたら、筆者は「あなたはほんとにフランス語の原書を参照したのですか?」と問い詰めるだろう。ChatGPTは、もっともらしく答えることはできるのだが、その内容は不正確で、出典はデタラメなことが多いようだ。 ChatGPTの発展型である「GPT‐4」はもっと正確に答えられるらしい。Bingというブラウザの「Bing AI」という機能を使えば、GPT‐4を無料で使えるようなので、こちらでも同じようなことを試してみた。 すると、ChatGPTよりわずかながら正確な答えが返ってきた。情報源の示し方をあらためて指示すると、その通り修正した答えを書き直してきた。まるで飲み込みのよい大学生のようだ。つまり、ユーザーが大学教員並みの指導能力を持っていれば、まるで学生を指導するようにBing AIを指導でき、これを使いこなせるようになりそうだ……と思っていたら、「主題を変更しましょう。何かお考えですか?」、「申し訳ありませんが、私はそのような文章を書くことができません。私はBingであり、検索や会話をサポートすることができますが、他人の文章を引用して記事を書くことはできません」などとBing AIは言い、対話が止まった。 どうやら学生や研究者がレポートや論文を、ChatGTPやBing AIを使って書こうとしても、そう簡単ではないらしい。工夫の余地はもう少しあるかもしれないが、普通に信用できる資料を参照して、普通に書いたほうが早そうである。 教育評論家の親野智可等は「ネット検索に比して効率が何十倍にもなったように感じ」る、「情報収集や下書きとしては大いに活用できて効率が上がる」と書く(「教育において「ChatGPT」はどんな可能性を持つか」、東洋経済ONLINE、四月二三日)。筆者の感触とはずいぶん異なるが、分野によって得られるメリットは違うのかもしれない。 読売新聞は、文部科学省が教育現場での対話型AIの取り扱いを示すガイドライン(指針)の検討を始めたことを伝える記事の中で、識者らのコメントをもとに「対話型AIを巡る懸念点」を以下の三点に要約した(無署名「チャットGPT巡る学校向け指針、文科省が検討…「瞬時に作文」悪影響に懸念」、同紙、四月六日)。 信頼性‥文章の内容に間違いやうそが含まれている恐れ 情報管理‥質問内容を通じて個人情報が機密情報が流出する恐れ 学習‥自ら考えて文章を書かないことで思考力育成を阻害する恐れ 筆者はこのうち三点目がとくに気になる。京都大学では入学式で湊長博学長が「文章を書くということは、非常にエネルギーを要する仕事だが、皆さんの精神力と思考力を鍛えてくれる」と新入生に語りかけた、という(無署名「チャットGPT、学生の利用に対策…上智大「論文使用なら厳格な対応」」、読売新聞、四月九日)。 仮に生成AIがいま以上に発展し、学生や研究者にとって使いやすいものになったとしても、その利用がわれわれの「思考力」育成を阻害してしまうのだとしたら、その結果は害悪でしかない。 とはいっても、生成AIを全面禁止することにも意味はないだろう。生成AIを禁止するならば、検索エンジンも禁止すべきではないか。それとも辞書や図書館の利用をも禁止すべきなのか。 なお筆者は本稿の執筆には生成AIを使用していない。いや、うまくできなくて、途中であきらめた。 (叡啓大学准教授・社会学・生命倫理) |
![]() ![]() ![]() ![]() ![]() ![]()
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
取扱い書店| 企業概要| プライバシーポリシー| 利用規約 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||