11.人工知能(AI)の活用とデータサイエンス

今回の内容は、数年前には存在しなかった新しい内容も多いため、ネット上にもまだ、比較的「専門的な説明」しか無いようです。教材には、現代的な理解のために必要な情報を、できるだけ初等的・網羅的にまとめていますが、それでも、やや高度かつ冗長になっています。対面では「概念をとらえやすいように、重要な部分のみ、さらに簡潔に」説明します。なお、過去に(高校などで)聞いた内容や、ネット上にある初歩的な説明は、既に「(生成系AIが登場する前の)古すぎる認識」である可能性が高いですので、注意してください。現在のAIが、どのように、学習により「文章の意味を理解する能力」を獲得し、どのように「文章や画像を生成(文や画像の複製や切り貼りではない)」をしているのか、おおよそのイメージがつかめればよいと思います。その(おおよその)仕組みを理解したうえで、有用な利用法と誤った(あるいは危険な)利用法の識別ができるようになり、今後のAIとの付き合い方や、AI社会のあり方について、(妄想でない)考察ができるような、基礎知識と視点を身に着けていただいたらよいと思います。

11-1. 機械学習

単純なニューラルネットの場合でも、その結合の強さのパラメタの個数は、膨大になり、本格的な ChatGPT のようなAI(深い階層のニューラルネット)だと、パラメタの個数は「数千億個」にもなります。その、膨大な個数のパラメタは、どのようにして決める(求める)のでしょうか? それが膨大なデータを用いた「ニューラルネットにおける機械学習(ディープラーニング)」です。

ニューラルネットの機械学習の技術は、大きく分けて次の3つに分けられます。

なお、実際には、これらを組み合わせり、学習済みモデルを流用して、さらに機械学習をさせる方法もいろいろ開発されています。全体を流用したり、部分的に切り取ってそこに新たなネットを繋げて学習させたり、微調整(ファインチューニング)したり...

11-2. 様々な「機械学習技術」の組み合わせ。

近年では、「ある問題で学習したNN」を元にして、ほかの問題に対応するNNを構成することも行われています。ある特殊な問題に対応するNNを作りたいけど「学習データ」が集められない場合など、その問題を解くのと似た能力が必要と思われる他の問題で学習したNNを元ににして、そこから、目的の処理を行うためのデータを学習させる「転移学習」という手法や、全体ではなく一部(例えば特徴抽出の浅い階層は他の学習で得たもの)をそのまま流用し、その上で、深い階層の部分は、新たに作るなどの手法があります。人間などでいえば、例えば、犬を識別するのも猫を識別するのも、視神経から大脳に到着するまでの信号処理(特徴抽出と抽象化)は同じで一番深い階層(犬や猫と認識)の部分だけが違うだろう、という考え方です。人間が学習する場合でも、「別のあることを学んでいる人」と「何も学んでいない赤ん坊」では、学習の効率が違ってくるでしょう。英語を学んでいれば別の言語であるドイツ語やフランス語の学習が早いとか、絵がうまい人は字もうまいとか、そういうことと同じです。この辺は「実際にやってみて、効果的ならその手法を使う」という「試行錯誤」の世界なので、様々なことが試みられています。

また、近年は「教師無し(ラベル無し)データから、機械的に練習問題と正解を生成して、それを教師あり学習の仕組みを使って学習する」という、全体としては「教師無し(ラベル無し)」の学習でありながら、内部では「教師あり学習と同じ仕組み」を使う方法も生み出されています。

自然言語処理においては、まず「単語の意味を理解する」ことが重要になります。これは「単語(文字コードの列)」「単語の意味に相当する数値の組(ベクトル)」に変換する処理を行うNN(モデル)を作ることになります。高校で「数値が2つ並んだベクトル」を教わっていると思いますが、一般に数値がいくつ並んでいるかを、ベクトルの次元と言います。高校で教わったのは「2次元のベクトル」だけと思いますが、単語の意味を表現するベクトルは一般に多次元(数十次元とか数百次元とか)のベクトルになります。 「近い意味の単語」は似たベクトル(内積が大きいベクトル=似た方向のベクトル)になり、「異なる意味の単語」は別の方向を向くベクトル(内積が小さい。直交に近いベクトル)になります。このような機能を持つ「単語(文字列)から意味を表現するベクトルに変換するニューラルネット(word2vec)」が、この手法で作られています)。(補足:このようにしてベクトルの形で意味理解すると、たとえば、意味ベクトルで"King - Queen" と "Man - Woman" の計算をすると、ほとんど同じ値になります。つまり2つの単語の意味の違いは性別である、という単語の意味や概念を含んだベクトル表現が得られている、ということになります。これがword2vecで実現された「単語の意味理解」です)

具体的には、大量の「ラベル無しの文書データ」を用いて、大量の「文章の穴埋め問題」を作ります。元の文章から穴埋め問題を生成したのですから、もちろん元の文章にある単語が、が正解になりますから「文章の穴埋め問題と正解」のデータ自動生成することができます。このデータ「教師データ」として、「単語-->ベクトル(単純なニューラルネットでコード化した単語)-->ベクトルの列(穴埋め問題)から、(穴埋め問題の)解答のベクトルを求めるニューラルネット-->解答が「正解」になるように、ニューラルネットのパラメタを調整」という処理を繰り返すことにより、「単語-->ベクトル」と「穴埋め問題を解く」ニューラルネット(モデル)が同時に学習されていきます。十分に学習が進んだら、そのうち「単語-->ベクトル」の部分だけを取り出します(転移学習)。このようにして、「単語(文字コードの並び)」から「単語の意味を表現したベクトル」に変換する機能が「大量の文書データだけから」、機械学習の手法で、作ることができます。ニューラルネットから見ると「大量の穴埋め問題と正解」という「教師セータに当たるもの」があるように学習していきますが、「人間が正解例(教師データ)を与えているわけではない(自動的に問題を生成してそれを解かしているだけ)」なので、これは「教師無し学習」と分類されます。詳細を知りたい方は、たとえば、https://lp-tech.net/articles/U2xkm等の記事を読んでみてください。

なお、この手法は、現在の「生成系AIと言われるもの」の原型です。

さらに発展した「大規模言語モデル」では、「大量の文章(ラベルなしデータ)」から、自動生成した「穴埋め問題(正解あり=疑似的な教師データ)」の形で「単語の並び方から、次に来る単語を予測する」という問題を解かせて、「文法」や「知識」に関するルールを学ばせます。たとえは、「I ?」「I have ?」「I have a ?」「I have a pen ?」... という形の問題を自動生成して「次に来る単語は?」と言う問題を学習していき、その結果は「次に来る単語の確率」という形で蓄積していきます。「次に来る単語を予測するニューラルネット」としては、回帰型ニューラルネット(Recurrent Neural Network:RNN)がありましたが、現在ではさらに進んだ「文章(複数単語)の意味を数値の組に変換(エンコード)と、逆に数値の組から文に変換(デコード)を組み合わせた手法(Transformerモデル)」に置き換わっています。仕組みは複雑化し高度になっていますが、「膨大な入力データを、数少ない抽象化した数値の組に変換し(意味理解:エンコード)、数少ない抽象化した数値の組から、元の入力データと同じ(近い)ものを生成する(デコード)ように、学習する=パラメタを決める)」という点は、単語認識(word2vec)と同じです。これに「大量の文章を入力して、学習させる」ことにより、単語だけでなく、「文章の意味理解」に相当する機能が、実現されます。ChatGPTなどの生成系AIで使われる「大規模言語モデル」では、ここまでを「事前学習」として「大量の文書データ」のみで、行い、「文章理解と文章生成」の能力を持つAIを作っています。そしてこのようにして学習した「文章の意味理解の能力を持ったニューラルネット」を元に、その後、教師あり学習強化学習の手法で「質問文に対する、それに続く正しい解答文」が得られるように、「微調整(ファインチューニング)」しています。

「質問文に対する、それに続く正しい解答文(教師データ)」としては、例えば「日本語の文章//正しく翻訳された英語の文章」とか「例題//例題の正解」などを使います。このような「教師データ」が少なくても「言語能力を獲得したAI」は、効率的に例題を学び、似た問題に対する回答能力を身に着けていきます。 この段階では、「数少ない(例えば1つの)教師データで学習する(ワンショット学習)」こともある程度可能であり、また「教師データとして与えられていない入力に対しても、ある程度妥当そうな出力をする(ゼロショット学習)」という性質が生まれることも分かりました。ちょうど、「ある程度の常識や基礎知識があれば、一度見れば理解する」とか「一度も見たことないけど、常識で判断する」ということに相当するかもしれません。 これが、現在の「生成AIの、理解する能力、創造する能力」であり、同時に「ハルシネーション(幻覚:もっともらしい大嘘を付く)」という現象が生まれる原因です。(ちなみに、日本の「東大ロボ(東大入試合格を目指すAI開発プロジェクト)」は、Transformerモデルを使っておらず、問題文の理解にn-gramという「単語の並びだけに注目した単純な解析法(意味を理解しているわけではない)」を用いているため、読解力が低く、東大合格レベルには届かず結果的に失敗に終わっています。にもかかわらず、平均的な受験生以上の得点を得ることには成功しているので、その後、「それ以下の点数しか取れない人間の平均的な受験生(日本の高校生や子供たち)」の読解力に問題があるのでは?という指摘へと発展しています。ですから、n-gramではなく、その後発展した、「文章の意味を、ある程度理解するtransformerモデル」で同様のことを行えば、東大合格レベルに到達する可能性があるかもしれません。)

なお、「入力データ」-->[意味(意味を反映した抽象的な数値の組)]-->[出力データ]という仕組みは、中身としては「単なるビット列の変換でしかない」ですから、入力データが「文章」であっても「画像」であっても、同じ枠組みで処理することが可能になります。Dall-E(Bing Image Creator) などの「文章から画像を生成AI」も、基本的には、この手法で作られています。また、多言語間の翻訳も、この手法で「ある言語での入力データ」-->[意味(意味を反映した抽象的な数値の組)]-->[別の言語での出力データ]という形で処理されるため、「単なる単語の置き換えではなく、同じ意味の文章を生成する」という形で行われます。

なお、ChatGPTなどは、「一連のchat での対話全体」を入力(プロンプト)にして、「それに続く回答文」を生成していますので、一連のChat での対話文章も「学習」して回答していると言って良いかもしれません。実際、「例題と例題の正しい解法」を提示してから質問すると、似た問題にも「正しい回答」を返してくるようです(プロンプト・エンジニアリング)。また、言語能力を持った上で「質問//回答」のパターンを学び、回答を返す仕組みなので、「かなり汎用的に」回答を返します。たとえば「翻訳、Q&A、プログラム作成、作詞、小説や論文などの執筆、文章の要約....」そのような意味で「特定の能力を学ばせた特化型AI」から、様々な知的処理を1つのシステムで実現する「汎用人工知能(汎用AI, artificial general intelligence:AGI)」と言っても良いと思います。なお、原理的には、同じAIで、文章だけでなく画像も「理解、生成」もできるはずで、現在そのような改良が行われているようです。

他の例として、「敵対的生成ネットワーク(Generative adversarial networks、略称: GANs)」に使われる「学習」があります。これは、「偽物を作るAI(例えば架空の人の顔を描くAI)」と「偽物を見破るAI(顔の画像かそうでないかを識別するAI)」を同時に(学習により)作っていきます。最初、偽物を見破るAIには「本物の顔写真」を学習させ「偽物を見破る能力」を学習させ、「偽物を作るAI」は、「偽物を見破るAI」を見破られないように学習していきます。同時に「偽物を見破るAI」は、「偽物を作るAI」の出力に対して「偽物であると識別できるよう」学習していきます。このように、2つの目的の異なる(敵対する)AIを「同時に」学習させていくことにより、人間が介在せずに、自動的にお互いの能力を高めていくことができる場合があります。

また、ニューロンの結合のさせ方自体も、(試行錯誤により)探索することも普通に行われており、主として「ほぼ同じ性能を持つ、もっと小規模なNNを構築し、小型機器に高度なAIを埋め込むため」に用いられています(蒸留)。

いろいろあり、きりがありませんので、様々な「機械学習の手法」の紹介はこのへんにして、「データの重要性と注意点」という観点から考えてみましょう。


11-3. 教師無し学習とデータマイニング

ニューラルネット場合、浅い階層で局所的な特徴分類の機能を実現させるために、多数の(正解が存在しない)入力データを与えて、教師無し学習によって「分類能力を獲得させる」ために、教師無し学習が利用されることが多いですが、人間が処理方法(分析アルゴリズム)を与えて、多数の入力データを分類することも、実質的には似たような作業です。人間が、様々な統計手法で分析する場合には、「データサイエンス」と呼ばれることが多く、また、人間が統計ソフトなどを駆使して「膨大なデータの山から、様々な解析方法を組み合わせて、データそのものを見るだけでは気が付かない貴重な価値ある情報を見つける作業」は、「データの山(鉱山)の採掘(mining)」と言う意味を込めて「データマイニング」とも言われます。この「解析法」を固定化できる場合には、多量のデータを、単に機械に(指定された方法でえ)分析させて、そこから得た情報を活用することができます。そういう作業を通常「教師無し学習」と読んでいます。たとえば、ある製品を作る工場のラインで「不良品」を自動的にはじきたい場合、いくつかの検査項目(大きさとか重さとか)で測定し、その分布を求めて平均や標準偏差の値を求め、ある製品の大きさとか重さが、既定の範囲を超えたら(平均値からのずれが、標準偏差の何倍以上であれば)、異常値とせよ)」という処理などの前処理に使われることもあります。

解析法を人間が指定して人間が(統計ソフトなどを用いて)分類を行うか、ニューラルネットの形で機械に機械学習というか形で行わせるかの違いがあっても、やっていることはおほぼ同じで、「与えられたデータから、その特徴を分析する」ということです。 すると、どちらの場合でも「大切なこと」は共通になります。

データを集めるときに一番大切なことは、「それは、どの範囲から、どのようにして集めたデータなのか?」ということで、それは統計学などなら「母集団は何か?」という言い方をします。詳しくは「データサイエンス入門」で説明しますが、たとえば「スマートフォンを利用したあるサービス(注文とか、決済とか)が便利か不便かを調査しよう」というときに、「Webでアンケートをする」と、それは「Webのアクセス自体があまり便利とは感じていない層は、そのサービスが不便と感じていても、アンケートに参加しない」ですから「全体ではなく、偏った集団」を「母集団」として、データ抽出をしていることになりますので、そのようにして集められたデータは「全体を代表していない(違う母集団に対して調査をしている)」し、そのデータから分析された分類などの正当性も保証されません。また、「自己申告」による調査も、こう思われたいというバイアスがかかりますから、あまり信用できないことが多いです。つまり、単にデータを集めればよいわけではなく、「そのデータを分析することにより、目的が達成できそうか?」を、統計学やデータサイエンスの手法に従って、慎重に検討しておくことが必要です。また、母集団が何になっているかだけでなく、外れ値に意味があるか無いかとか、真の相関か偽相間(関係ないものの間に関係があるように見えること)か... データサイエンスの手法(=統計学の手法と正しい理解)を知らない人は、簡単に騙されるような「落とし穴」がいくつもありますので、詳しくは「データサイエンス入門の授業」で紹介します。 そのような検討をしないで、単に計算結果のみ、安易に機械に組み込まれて自動処理される場合には「誤りは普通にまぎれていることがある」ということは意識しておくと良いでしょう。

例えばある店でいろいろ買い物をしたとします。買っていくものは人により様々ですが、 ある店の、買い物の情報を集めて解析すると、いろいろな傾向が見えてくることがあります。例えば相関を分析してみると、「ビールとおしめ」が同時に購入されることが比較的多いとか... すると、ある仮説として「おしめを買ってきてと頼まれた男性が、ついでに自分の晩酌用のビールを買っていく、ということがあるのかも?」と想像できます。この仮説が正しいかどうかはわかりませんが、「ならば、おしめの売り場と近いところに(あるいはおしめの売り場からレジに向かう途中に)、ビールやおつまみの売り場を移動したら売り上げが変わるか?」という実験(試行錯誤)を行うことができます。もし売上変わらなくてもそれだけのことですし、もし売り上げが上がれば御の字です(有効なデータの分析と利用法です)。

しかし、この対策でこの店舗で売り上げが上昇しても、他の店舗で売り上げが上昇するかどうかは、別問題です。他の店舗のデータ取っていないし、解析もしていませんから。別の環境にある別の店舗では「おむつの近くに、ビールを置いても売れずに、化粧品をおいた方が売り上げが上がるかも」しれません。その店舗がどのような地域にあるか?によって、結果が変わる可能性があります。

なお、それも、「全店舗の」売上情報から統計解析できるかもしれません。いずれにしても、このようにして「データの傾向を掴む」という作業(データマイニング)は、結構有効である場合がありますので、店舗ごとの売上情報や、「ポイントカード」とか「キャッシュレス決済」による「個人別、購入情報」を解析すれば、いろいろな販売戦略が見えてくる場合があります。そのため、なんとかお得感を演出しながら「そのような膨大な情報」を集めて解析し、解析結果の情報や、解析結果を組み込んだ機器を販売することが、行われています。

なお、このような解析が大規模に行われている例としては「ネット上のおすすめ機能」などがあります。便利に感じる時もあるかもしれませんが「それは違うだろ(^^;」と思うような「迷惑なおすすめ」が表示されることが多いことからも、「どんなデータを集めて、どういう分類をしたのか?」という問題が、重要なことがわかるかもししれません。

11-4. 教師あり学習と学習データ

「教師あり学習」の場合には「どのようなラベル付き学習データを、どれだけ用意するか?」で、学習の効率や学習結果が大きく変わる、という性質を持ちます。 当然のことですが「誤ったデータで学習すれば、誤った処理を行うAIができる」ということです。全く同じ神経回路(モデル)を用いても「どの教師データを用いて学習するか」により、まったく別のニューラルネットに育っていきます。人間でも「まったく同じDNAを持った子供」でも、全く別環境で全く別の内容を経験・学習していけば、まったく別の能力を持つ大人に成長していきますよね。それと同じことです。

また「ある時期にのみ学習し、得られた結果を、それ以上学習させずに固定化して使う」場合もあります。実際には、使いながら経験を学ぶより(この場合、誤りがあっても、経験により成長します)、一気に学んで固定化して使う方が、動作が安定します。その場合には利用する場面では「決まったアルゴリズムで処理するAIと本質的に同じ(そのアルゴリズムをNN技術と学習で作っている)」と言える場合もあります。この場合、ニューラルネット技術を使ってても「使う場面においては、決まったアルゴリズムに従った、定型処理」になり、利用中に学習は行いませんし、その性能が途中で変化することもありません。この場合、「AIの処理に誤りを見つけても、利用者はそれを正すことができない」です。一方、利用時にも(利用履歴にを経験として)学習するAIの場合には、ある程度利用者が学習させることにより、誤りを正していくことができます。

例えば「高性能な画像フィルターなどを作る」場合には「どのようなアルゴリズムで作ればよいか分からない」場合が多いですから、これを「質の良い、教師データ(画像データと正解データの組)」を用いて作る、ということが普通に行われています。学習により変化する機会が欲しいのではなく、「性能の高い機械が欲しい」わけですから、十分に高性能であれば、それ以上学習させる必要もありませんし、性能が途中で変化しては信頼できませんから、使う場面では学習させず、固定化して使います。昔は、「優れた性能を実現するためには、優れたアルゴリズムによる、優れたプログラムを作る」という高度な作業が必要でしたが、機械学習の手法を使う場合には「目的に合致した、品質の高い、大量のデータ」があれば、比較的簡単に、従来の手法より高性能なものが作れます(特にAIとか言わずに、普通の部品として、多くの製品の中に組み込まれています)。この場合には、使う時点では「決まった処理を安定して行う部品」であり、 適切な学習が「優れた性能を実現するためのカギ」になりますし、そのような高品質のデータが得られれば、処理するAIを作ること自体はそれほど難しいわけではありません(簡単なものなら子供でも作れます)。 そのため「高品質な大量のデータを、いかにして作る(集める)か?」ということが、高品質な新製品開発のカギになります。なお、それを開発するということは、それを処理するAIがまだない、ということですから、そこには「人間がやるしかない(^^;」という作業(仕事)が山積しています。その作業を、誰がどのくらいの労力で行うか? ということが、実際には問題となることが多いようです。

例えば、CT画像からある病気の可能性を診断するとか。単に変異を起こしている部位と面積から算出するものもあるでしょうし、NNによる画像認識の技術で可能性を求めるものもあるでしょう。このようなものを作るには「なるべく多くの、CT画像と「正しい診断結果の情報」が必要であり、そこに「誤診のデータ」がまぎれていると、有用な診断は行われません。なお、正確な診断を行うAIが無いから作っているのですから、そこで使う「正確な診断」は人間が行うしかありませんし、そのような「信頼のおける教師データがどれだけ集まっているか」がAIの性能を決めます。

また「何の目的のために、どのような処理を行うAIを作りたいか? またそのために必要な「教師データ」をどのように集めるか?」が、AI開発の主要部分になりますので、これは「コンピュータ(AI)技術者」よりも「実務等で必要性を感じている人」の方が、向いています。逆に言えば「実務でどのように使うと便利か(コストに見合った利益が得られるか)を知らない、(当該実務の経験の浅い)コンピュータ技術者」だけでは、絶対に「実用的で便利なAIは作れない」です。そのため、「AIを作るための専門的な理論や構築は、情報科学の専門家に任せる」にしても「実務を熟知する人が、ある程度AIの基礎知識を持ち」、ある程度専門的なコミュニケーションをとりながら、実用的な(実務に実際に役に立つ)システムを組み上げる、という作業が必要になっています。これは、AIだけでなく、業務用のコンピュータシステムを作るために一般的なりたつことで、どこかの政府や行政のように「IT業者に丸投げ」では、決して「役に立つシステム」は作れません。

学習により変化する(成長する)能力を持つAIでも、実際の使い方として、「利用時にも学習するか、制作時にのみ学習するか」で、安定性やトラブル時の対応に差が出ますので、利用時にはその違いを意識すると良いでしょう。



11-5. AIの開発や、AIや機械学習の利用において、気を付けるべきこと

いろいろな種類のAI技術や機械学習技術がありますが、共通に気を付けるべきことがあるように思います。それは「何を目的とするAIか?」「処理アルゴリズムや学習させるための、評価値やが教師データは、その目的を達成すために、適切か?(その目的と合致しているか?)」「想定外の、作成時の入力・利用時の出力、に対してどのように対処しているか?」、「そのAIは、実際に期待通りの動作をしているか?」などです。つまり「目的」は何で、実際のものは「その目的に合致しているか?」ということです。

... と、次(11-5)へ進んでもよいのですが、以下、「具体例」を補足しておきます。長いので興味なければ適当に読み飛ばしてください。

例えばアルゴリズムによるAIでは「作者が解析方法を決めている」ことになります。では、作者は「正しい解析法とそれに基づく回答方法」をAIに指示しているか? と言う問題です。これは、知的と感じる処理かどうかにかかわらず、普通に「コンピュータを利用したシステムを作る場合の問題」で、人間の作業には必ず誤りや勘違いがありますし、「適切なアルゴリズム自体が解明されちないため、単なる思い込みでアルゴリズムを作る」という場合もあります。アルゴリズムが分かっているシステムでさえ、見落としによる誤り(バグ)や、(想定が甘すぎる誤りのため)想定外入力に対して、想定外の動作を起こすことがあります。 普通にコンピュータシステムには、バグもあり、漸弱性もあります。もし人類に、正しいアルゴリズム正しく指示する能力があれば、バグも脆弱性の問題も起こりませんが、これは現在の人類の技術では不可能です。そのため、通常まともなシステムであれば「製作者と別グループにより検証、チェック」が行われます。別グループだけではチェックしきれない場合には「ベータ版;開発中の公開版」を配布して「大勢の利用者で」動作確認をします。それでも「後から不具合が見つかる」ことも多いのが「普通のコンピュータシステム」です。では、同じように作られる「知的に見えるシステム」はどうでしょう? まず、「アルゴリズムが非公開(外部からチェックできない)」場合が、多いことが問題です。そこに明らかな誤りや不正などがあっても「製作グループ以外には公開されないので、その誤りに気が付くことも少なく、また明らかな誤りがあっても訂正されない」ことがあります。例えば、google 検索や Amazon のお勧めなど、また最近では「食べログ」の評価アルゴリズムの問題がニュースになっています。「不当な(特定業者にとって有利な)あまり適切ではない評価アルゴリズム」が使われていても、利用者は気が付きにくく、それが様々な経済活動に影響を与えます。他の「アルゴリズムによるAI」でも同様です。

また、「教師あり学習」の場合には「どのような学習データ(入力)を用意するか?」で、学習の効率や学習結果が大きく変わる、という性質を持ちます。全く同じ神経回路(モデル)を用いても「どの教師データを用いて学習するか」により、まったく別のニューラルネット(AI)ができる、ということは、注意が必要かもしれません。「目的に合わないデータで学習」すれば、「目的に合わない処理を行うAIができる」ということです。

そのため、作製したAIが、実際に期待される機能を有しているかどうかのチェックと、期待した動作をしない場合の対応が、必要です。

例えば、前に取り上げた、AIによるCT画像診断などの場合もそうでしょう。現時点で「十分多くの高品質なデータが既に集められ、十分に信頼できる結果が必ず得られる」とは限りませんから、現時点でAIの診断を信じて「鵜呑みにする」(まともな)医師はいないでしょう。自分も実際のCT画像を見ながら「AIによる結果も、診断のための1つの情報として利用する」ようにしています。

また、「カーナビ」なども、「知識ベースと推論エンジンによるAI」の一種と見ることもできます。現在地から目的地までのルートを、地図データを元に検索・推論をして、提示してくれます。カーナビ使ったことのある方はご存じでしょうが「実際に通れない道を提示する、(途中通れないと誤解して))無用な遠回りを指示する」など、日常茶飯事です(^^; 多くの場合「地図データの更新が不完全」だったり「急な事故規制などの情報が反映されていない」ことが原因の場合が多く、そのためできるだけ正確なリアルタイムの情報を「地図データに反映させる」ことが重要です。ですが大抵の場合、そこそこ妥当なルートを提示してくれることも事実ですので「大まかなルートを、運転者が把握し、運転者の意図と一致している範囲では、こまかいルート(交差点を直進するか曲がるかなど)をナビに任せれば」、運転の「気楽さ」がかなり変わり、その分、安全運転(危険察知と安全確保)に神経を集中できます。一方で、ナビの指示と自分の意図が違う場合には、普通にナビの指示を無視します。たとえば「途中、こちらの方が景色が良い」とか「こちらの道のほうが慣れている」とか。最近のナビは「早く行きたいのか?楽に生きたいのか?走行距離を短くしたいのか?」など、複数の目的で、検索してくれるようになっていますが、「何を目的とするか?」は、たぶん人間のわがままな要求をすべて満たしているとは言えません(細くて曲がりくねっている山道を走るのが好き。とか、未舗装のがたがた道を走るのが好き、なんて指向に合わせたナビは、多分存在しませんね(^^;)ただし、一部「過去に通った道の履歴」を記憶して、ルート検索に反映させる(若干の学習機能を持った)ものもあります。なお、日本には(特に都市部には)「開かずの踏切」や「交通規制どおりに走行するとかえって危険(常に法定速度守って運転してみると実際に「危険」を感じ取れます)」という矛盾した状況もあります。そういう矛盾した状況で「何を選択するか」という問題が解決されていなければ、安心して判断を任せることはできないでしょう。

このように、AIによる結果は、(その作り方から分かるように)絶対に正しいわけではない、です。そのことを念頭に、必要があれば「人間の判断で、適宜無視できる」ような配慮が必要な場合もあります。なお、逆に、AIによる自動運転自動車が東京オリンピックにおいて、人身事故を起こした問題もありましたが、これは逆に「自動運転に組み込まれていた安全確認(自動停止)の機能を、人間が切ったため」と報道されており、必ずしも「人間の判断が正しいわけではない」という例です。ではどうしたらいいか?... 難しい問題と思います。

また、「人間らしい対話をするシステム」の開発でも問題が起こりました。「人間らしい」とは何なのか? どのような対話をするAIを作ることが「本来の目的」か?と言う問題です。人間にもいろいろな人がいます。善人もいれば悪人もいますし、正直者もいれば嘘つきもいますし、公平な人もいれば差別することが当たり前と思う人もいます。つまり「人間らしい(人間と区別しにくい)、だけでは、AIの目的として、明確でない(具体的で無い)」、と言う問題です。 たとえば「対話システム(AI)」を学習により発達させる問題を考えます(空想ではなく「りんな」や「Siri」やGoogleアシスタント」や「ChatGPT」等をなどを作る、という具体的な現実的な問題です)。人間らしい対話ができるよう、できるだけ多くの対話データが欲しいですが、少数の開発者が大量の対話データを入力することは極めて困難、あるいは不可能です。そこでネットで公開し「多くの人に、(遊び、と称して)対話データを入力」してもらい、それを「学習データ」とします。多くの人が(これらのAIと)対話することにより「どの様に答えることがあるか、どのように答えることが多いか」など、より「自然な対話」をするためのデータが集まり、AIは、自然な対話をする能力が獲得できます。

2016年3月23日に、マイクロソフト社は、Twitter上で動く「Tay」というAIを作り公開しました。ところがその2日後、「Tayは、ヘイトスピーチや不適切な言葉を発するようになり、マイクロソフト社によりTayのアカウントは停止」されました。これは、Tayの学習アルゴリズムを見破った一部ユーザの、対話による学習データへの攻撃、の結果であることが、後ほどわかりました。同様の問題はIBMのAIワトソンの開発(学習)でも起こったようです(ある意味「期待していない人間らしい反応をするようになりました(笑))。これは、その後、「質のよい多くのデータを得ることは難しい」という教訓になり「如何に学習データの品質を高めるか」がAI開発の大きな問題であるということが広く認識されます。「質の良いデータ」とは、「本来の、真の目的の達成に役に立つデータ」といってもよいと思います。それをAIが自動判別できれば良いですが、そもそも、そのようなAIが現在無いから今作っているわけで(^^;、また、「何を良い、何を悪いと感じるか?」は人間の主観だから人によっても違うわけで、また1人の人間がチェックできるような分量でもありませんので、これは結構厄介な問題です。現在では「人間(担当者)が、主観によりNGワード(禁止用語)などを設定したりして、学習データに変更を加えて、この問題を回避しよう」としていますが、普通にSNSでNGワード逃れの投稿や、逆にNGワード化させるための投稿なども普通にありますから、「いたちごっこ」になりますし「管理者の選別次第」で、AIに与えるデータが変わってきます。なお「りんな」でも同様の問題が生じており、その都度「人間が、不適切な内容を学習データから削除する」という対応を行っているようです。それでも、日本の特質か「りんなは、漫画などに異常に詳しく、腐女子化している(^^;」という感想を持つ人も多いようです(ある意味、「日本らしい」特徴を持つAIに育ちました(笑))。

対話だけでなく「どのようなデータを、どのような判断基準で選ぶか?」によって、設計者が意図しなかった別の部分を「特徴」として学習してしまう場合もあります。たとえば「顔認証」をNNで作るとき、「人間の顔写真:人間」と「猿やゴリラの写真:人間ではない」というデータを集めて「人間であるか無いか」を学習させてたところ、「黒人は人間でない:猿である」と答えるようになったという問題も報告されています。「人間の顔」は人種により色などの特徴がありますが十分な量の「様々な人種の顔データ」を使わず、集めやすかった白人の顔データが多かったために、結果的に「人種差別を行うAIが出来てしまった」ということです。もちろん開発時に意図された(あるいは気が付かれていた)問題ではなく、単に「集めやすい、顔データを使った結果、集めやすい顔データは、白人の物が多かった」というだけのことです。「集めやすいデータで作ったAI」が、信頼できるものとは限らない、という例の1つでしょう。学習に使うデータに対して「適切な学習になるかどうか」ということに対する、幅広くかつ深いチェックが必要であり、今のところ「完成したものを、人間がチェックするしかない」というのが現状だと思います。逆に「実際の場面において、有用性が実証されていなければ、おかしな判断をすることは普通にありうる」ことを意識しておくことも必要と思います。

同じような問題(課題)は、強化学習によるAIでも起こります。たとえば「オセロゲームをプレイするAI」を作るとき、その「目的」は何か?という問題です。通常ははある盤面において「どちら有利か?」と求める「評価関数」を与え(場合によっては学習により精密化し)、その値が高くなるような手を打つように「強化学習」により育てていきます。しかし「オセロが強いAIを作ること」が「真の目的」かどうか?という問題です。ゲームとして人間が遊ぶ相手なら「強すぎると面白くない」とか「負けると気分が悪い」ということもあるでしょう。

「相手に勝つ」と言うのが「ゲームの目的」ではありますが、そういうことも踏まえて「オセロゲームのAI」の目的は、本当に勝つということが「作りたいAIの目的か?」という問題です。なお、目的を「オセロが弱いAI」に変えた、「必ず負ける 最弱オセロ」なんていうのもあります(^^; 「手を読んで考える」機能は「オセロが強いAI」と同じですが、評価値が高い方向ではなく「低くなる方向」へと学習・思考を進めるように部分的に変更することで、こういうものも作れます。「何が目的か?」という問題はそれほど自明でない問題も多く、この部分を変えると(同じ機械学習の技術を使っても)全く別のAIに育っていく、というのがミソです。もっと高度な目的(評価値)としては、例えば「相手と僅差で勝つAI」なんてうのもあり得ますね。オセロだけでなく、将棋や囲碁などでも「僅差で勝つ(僅差で負ける)」AIなど「接待向け」や「(ギャンブル廃人からとことん巻き上げる)カジノ向け」として、かなり需要がありそうにも思います(笑) (作るのそれほど難しくないですから、既に、ネットカジノなどで、実用として使われているものもありそうですね(^^;)

何を評価値(報酬)とするか?」は、いわゆるAI技術を使うか使わないかにかかわらず、結構難しい問題があることも、常識として知っていると思います。たとえば、「業界No.1s商法」や「初等学校教育の問題」や「終末医療」や「健康食」などでも、「何を目的とするか?」が大切な問題であり、現在も解決していない多くの問題があることは、皆さんも「一般常識の範囲で」知っていると思います。例えば医療(患者に対する処置アルゴリズム)として目的とすることは何か?という問題。昔は「生き残ること」が目的であり、古い法律(アルゴリズム)も、その目的を前提に作られてますが、そもそも人間の寿命は無限ではないという現在の技術を踏まえると「如何に本人が満足して一生を終えられるか?(如何に満足して死ねるか?)」の方が大切という価値観も生まれ「本人が望まない延命治療は(周りの満足感や医療機関の利益のためにはなるけど)、本人の幸福追求という目的には反する場合がある」ということも意識されるようになってきています。健康食の問題も同じで「**のリスクを減らす」目的と「食による満足感(幸福感)」とのバランスの問題も意識されてきています。初等教育でも「理不尽でも先生の言うことに従うこと」を強制したり評価する教育(ブラック校則の流行)から「子供の可能性を伸ばす、理不尽なことは理不尽なことと指摘する能力」へと、見直しが進みつつあります(「さんぽセル」を開発した小学生とそれに対する「大人たち」の論争が面白いですね)。元々初等教育には「陶冶(型にはめる)」と「訓育(良い方向に伸ばす)」がありますが、そもそも「目的」が何で、それに対して設定される「目標」が適切かどうか?の客観的な評価が難しい(本当の評価は、数十年後に、その国の文明(民度)という形で現れる)ことがありますが、実態としては国によって「ある人の思い込み(特定の思想や利害)、や短期的な視点による利害」で、「型にはめる」内容を政策や行政が決めてしまう、という問題もあります。AIの場合には「いかなる理不尽な目的・目標(評価アルゴリズム)であっても、(文句も言わずに)素直に評価値を高くするように学習することができる」という特徴を持ちますから、同じ仕組みの機械でも「様々な個性を持つAI」に育てることができます。ですから、「何を目的として、何を評価値として」AIを育てたのか? それは「本来の目的」に合致しているかは、改めて「そのAIを評価」してみないとわからない場合も多くなっています。さて、そのような現代「本来の目的」を、改めて見直し、その目的に向かうため「評価(評価値)」が適切なのか? 問い直してみることも必要でしょう。

なお一般に、「評価の方向」は、様々な方向がありますから、例えばある製品について「多数の質問項目を持つアンケート」を行い、その結果から「ある業者が1番になる評価方法」をあとから(データママイニング等の手法で)見つけ、それを「今の法律では、違法とはならない範囲で、(嘘とはならないが)誤解を与えるような表現に変更し、『**度、業界No.1!』として広告する方法」があります。今問題になっている「業界No.1商法」ですね。「業界No.1商法」に騙される情報リテラシーが低い人も多いのでは?(^^;

でも逆に考えると「評価の軸」を様々にとれば、様々な軸での「No.1」があることも事実です。これを「人間」や「AI」に当てはめるて考えてみるのも面白いかも。世界に100億人程の人間が生きてきますが、「**に優れている」とい評価項目(評価の軸)を、もし1000億ほど用意すれば、「全ての人間は、それぞれ、ある評価の軸においては、世界一である」ということになります。これが「個々の人間の価値」ではないでしょうか? 自分と全く同じ反応をする存在があれば、その存在は「自分の代わり」になりますし、同じ価値を持つかもしれませんが、「どこか1つでも違う」のであれば、「その違いをプラスに評価する評価軸の存在」しますから、その評価軸においては「自分より劣る」ということになります。ある意味、「世界中の人、全員が、ある意味(ある評価値で測るなら)世界一の天才」と言えます。そのような多様性の世界の中に、徐々にAIも参加してきている、というだけであり、既に「素早く間違えずに、四則演算をする」とか「多くの単語を覚える」とか「特定のアルゴリズムを確実に実行できる」とか、そういう「評価基準」なら、既にAI(=計算する機械=コンピュータ)は、人間以上の能力を持ちますし、今後も「人間の能力を超える知的処理をする能力」は、どんどん向上していくでしょう(そして、「機械にもできること(例えば将棋)を教える教師」ならば、AIは人間より適切な場合もあります)。でも「AIも一種類ではない」ですし、様々な目的により「様々な個性を持ったAI」が数多く生まれていくでしょうし、人間だって1種類の人間だけでなく、様々な環境により「様々な能力や個性を持った大人」に育っていきますし、その「生きる目的」すらも、決して1つでは無いでしょう。そういうことは「現在の機械は苦手なこと」であり、人間の方が現在でも優れていることであり、機械と人間が共存している現代および近未来の社会において必要な「人間が学ぶべきこと」でしょう。そういう問題が現実になっている状況を踏まえて「何のために?、何を目的・目標とするか?」という問題が、AIの開発(教育・学習)においても、人間の教育や学習においても、本質的に重要な時代になっており、また、社会(国や企業など)は、「何のために、何を目指すべきか?」という問題も、(古代からそうでしたが、現代および近未来においても)重要で深刻な問題と思います。(余談:経営学者のドラッガーもそういうことを提唱し1973年「マネジメント(現代的な経営学)」の手法を提唱し、日本でも2010年頃話題になっています。なおドラッガーの原著とは内容が違いますが、雰囲気だけなら、小説・アニメ・漫画の「もしドラ(もし高校野球の女子マネージャーがドラッカーの『マネジメント』を読んだら)」を見ても、雰囲気だけは掴めるかもしれません(^^;)なお、コロナ禍での「マスクやワクチン接種は何のために?」というのも、時が来れば「手段が目的化していないか?」とか、いろいろ客観的なことが、明確になってくるかもしれません(^^;

「評価値」というのは「目的により、どのようにでも設定できる」ものです。だからこそ、どのように目的を明確化し、目的に合致した評価値を、どのように設定するか? これが、最も難しい(また現実的な、しかも人間の組織でも、AI開発の技術的においても、最も重要な)問題かもしれません。


11-6. AI の将来

現在既に、コンピュータの「演算(計算)」や「決められた手順に従い忠実に実行する」等の能力は、人間を超えていますし、「既存の知識を覚えて、既存の知識を組み合わせて推論すること」も、問題によっては人間を超える能力を発揮しています。また、人間がそもそも「なぜそう判断しているのかわからない.. けど、これは**だ、と判断するようなこと」も、ディープラーニングによるニューラルネットの技法により可能になり、さらに、強化学習や転移学習の技術などの発展により「原理的に正解はない問題や、創作」も、ある程度「多くの人が満足する程度の処理」を行うことができるようになってきています。なお単一のタスク(仕事)をこなすAIを「特化型 AI」と呼ぶことがあります。そしてその能力は「機械学習」により、日々向上しています。そして、現在は、「様々な仕事(タスク)を、汎用的にこなす、単一のAI」の入口にまで発展してきた、と位置づけることもできると思います。「複数のタスクを汎用的にこなす能力を獲得したAI」を「汎用人工知能(artificial general intelligence:AGI)」と呼ぶことがありますが、翻訳ソフトTransformerの技術を発展して作られた、「Chat GPT」「bing chat」などは、そのような世界の入り口と捉えることもできます。

では、未来は、どうなっていくのでしょう…?

未来や将来は、誰も分らない(^_^; です。ですが、多分… 現在~近未来は... という形で、軽い気持ちで、まず「現在すでにできることや、現在進展中の試み」あたりから順に見ていきましょう。

汎用AIが最終的に目指すところは、イメージとしては「人間の赤ちゃんの脳」と言っても良いかしれません。生まれたばかりの人間の赤ちゃんは「無限の可能性」を秘めていますが、そのままでは何もできません。しかし、そのあとの経験や学習により「いかなる、(人間の大人が行う)知的作業も、できるようになる素質を持つ」ということです。生まれたばかりの赤ちゃんと同じように生まれたばかりのAGIは、多分何もできないでしょうけど「優れた、学習する能力」を持ちます。その赤ちゃんAGIを、適切な環境で適切な刺激を与えて育てることにより(適切な学習データを与えて、適切に育てることにより)、ある程度汎用的な知的作業を行い様々な能力を発揮する大人AGIのになる(様々な処理を行うAGIになる)という感じです。実際に、例えば、Transformerやそれを改良したChatGPTなどは、「何も知らない生まれたばかりの赤ちゃんの脳」に、大量の文書データで教師なし学習をさせて「言語能力を持った子供の脳」に成長させ(事前学習)、そこからさらに、「教師付き学習」により、様々な知識を持った「大人(専門家)の脳」へと成長させて作っている、と比喩できます。 なお、、AGIと言っても、実際は「人間に似せる」のが目的ではなく、「広範な処理が可能な1つのAI」を作ることにより、「多くの些末なAIを個別に作る必要が無くなるメリット」を目指しているのかもしれません。実際「Bing Chat」は、人間に似せることを目的としておらず、あくまで「便利な情報検索の道具」を目指しています。

単一の「人間の全知能を超える究極のAGI」を作ることが困難でも、既に「人間のある種の知能を超えるAI」ならばいくらでもありますし、ディープラーニングの技術を使ったものだけでなく、知識ベースと推論エンジンによるものや、人間が特定の処理アルゴリズムを直接与えるという「古典的な手法」や、誰も人工知能とは言わなくなったコンピュータ(計算機)による単純計算も、それぞれの目的では、ディイプラーニングによる手法を凌駕しているものがあります。たとえば、ChatGPT等が苦手な、数式の変形や計算は「古典的な手法で作られた数式処理システム(古典的なAI)」が既にあり、ChatGPTよりも優秀ですし、ChatGPTが苦手な桁数の多い数値計算は「電卓で簡単にできる」ものです。また、「明日の天気を予想する」なんていう知的作業は、多くの自動観測機器や衛星画像等を元に、気象庁などのスーパーコンピュータ等で求めていますし、これらをディープラーニングの手法で行うことは不可能に近いくらい難しいですが、既に「古典的な手法で、天気予報は可能」になっています。「AIは単一の技術ではない」ですし「知的と思われることを実現する技術の総称」と、本来の意味で正しくとらえれば、「様々な能力(個性)を持った、多数のAIが、協力して一連の作業を行う」ような発展の方が、早いし効率的と思います。ちょうど、人間の社会が「何でもできる偉い人」が全てを考えて決めるのではなく、「多くの、様々な個性を持った人たちの共同作業」により、様々な活動が成り立っているのと同じです。そのような意味で、今後「様々な個性を持つ、様々なAI」が生まれ、「様々な個性を持つ人間」の社会の仲間入りをしてくる(あるいは既にそうなっている)のかもしれません。実際、MicrosoftやGoogle等は、この方向を目指しているようです。

ところで、「寿命の無い、休憩の必要がない、複製が可能な AI」は、驚異的なスピードで「学び続ける」ことが可能です。他方、人間は、睡眠や休養が必要なうえ、寿命もあるため、寿命を超えて学び続けることはできません。特定目的の学習でもこのようにして「人間の能力を超える」特化型のAIが数多く作られていますが、同様に、AGIは、広い範囲で人間の脳の能力を超えるかもしれません。

そんな、SFみたいなこと、可能なの?(笑) と思う方もいるかもしれませんので、ちょっと「基本的な常識」をまとめておきます。

人間の、大脳皮質の神経細胞数:140 億個(14G 個)、脳全体の神経細胞数:千数百億個(200G 個以下)と言うことが知られています。そして、人間の知的活動は、これだけの個数の脳細胞のつながり(ニューラルネット)によって生み出されていると考えられます。他方、2013 年にスーパーコンピュータ京を用いて、「17 億 3,000 万個(1.73G 個)の神経細胞からなる神経回路網のシミュレーション)が行われました。大脳の14G個に大して1.7G個ですから... まだ足りないとは言え、個数だけならかなり迫っているとも言えます。もちろん脳は大脳だけでないので、脳全体をスーパーコンピュータで実現するには200G個ですから、まだまだ全然足りませんが、コンピュータの性能がムーアの法則に従い(20年で1000倍)上がるとどうでしょう? 「人間の脳が持つ全機能」のシミュレートが可能なら、 人間の「全知能」を扱える 本物の「汎用人工知能(AGI)」も可能かも?? (余談:なお、1970年代に始まった「ヒトゲノム計画(約4G対DNAの全解析)」は、当時とてつもなく膨大な解析計画であり、100年とかでは絶対に不可能(20世紀中には絶対に不可能で、21世紀中でも...)という意見が多かったですが、あっという間に自動解析技術が進み、既に全解析は終わっています(^^; それに比べて、脳細胞の数やその結合の数は、それよりも圧倒的に多いですが...(^^;)。

ちなみに、2005年、米国の発明家のカーツワイルが「未来の予想」を発表しました。たとえば「2010年代に、VR眼鏡や、バーチャルアシスタントが登場し、家庭用ロボットが家を掃除し、2020年代には(遺伝子操作した)デザイナーベビーが生まれたり、軍事用偵察機などは100%のコンピュータ制御(完全無人化)になり... 2045年には、1000ドルの(ローエンドの)コンピューターが、人間より遥かに賢く(知的)なり、技術開発は「コンピュータ(AI)」が行い、爆発的な速度での自己進化が始まる」時代 へと進化する(技術的特異点:シンギュラリティ)かも??という予想を述べています。

では、その時「汎用人工知能(AGI)」は、自我や感情を持つのでしょうか? これは(前に説明したように)「自我や感情がある」と「自我や感情があるようにふるまう」の違いを定義できなければ、無意味な問いかもしれません。たとえば「あなた(人間)に自我や感情があるのですか?」と問われて、あなたは「自我や感情があるように振舞っている(見せかけている)だけ、ではない」と、他人に「証明」できる人はいないでしょうし、チューリングは、1950年頃にこの問題に対して「人間と区別できなければ、人間と同等な知的存在」という判断基準(イミテーションゲーム・チューリングテスト)を提唱して詳しく論じていますので、そのような意味で「自我や感情と我々が言っているもの」が何なのかが明確にならないと、この疑問は意味を持ちません(と言うか、違いを定義できなければ、1950年にチューリングが解決済の問題です)。

なお現在でも、ディープラーニングの手法で、ある程度「善・悪」や「喜怒哀楽」や「快・不快」や「感動」等の感情を「学習」させることが可能ですし、まだ規模が小さいですが、人間の表情から喜怒哀楽を読み取ったり、感情の情報を踏まえた反応をするAIも普通に作られていますし、「人間に判断できない程度に、自我を持っているように振舞うAI」ならば、多分比較的容易に作れそうに思えます。つまり、将来にわたって「AIには**ができない(これは最後まで人間のみ)」と安易に決めつけることは、少なくとも現在までの文明および知能水準の人類には、できない、と思われます。なお現在のAIには「まだ」できない、ならもちろんいろいろあります。

それに「現在のAIやロボットでできる」ことでも製作や運用コストが高く「機械より、人間の方が安い(^^;」ということも(良い意味でも悪い意味でも)多くあります。

また「自分の楽しみのための作業や処理は、機械で行えても(自分は)楽しくない」ということも多くあります。例えばプロスポーツなどの殆どは「機械の方が能力は上」でしょうが、それを面白いと感じるかどうか? 囲碁や将棋も今は「人間より機械のほうが強い」ですが、「人間と戦うことが楽しい、人間どおしで戦っているのを見るのが楽しい」という、「合理的でも生産的でもない」ことに価値を見出し「それに対してお金を払う人が多い」ため、産業として成り立っています。このような「人間どおしの戦いを見るのが好き」という人間の習性は、殺し合いを娯楽としていた古代ローマ時代から全く進歩していないのかもしれません(^^;

また、「機械が人間の仕事を奪い、人間の仕事がなくなる」、という「昔のセンス」の方は、実際の、過去の歴史や、現在の社会をもう一度よく見てみると良いと思いますが、「道具の発展により、人間の活動(仕事)は変化してきた」のは事実ですが、結果として「人間の仕事(活動)および活動による価値の発生や移動(=経済活動の規模)」は、減るどころか飛躍的に増大しています。もちろんなくなる仕事もありますが、これは今までも普通に起こってきたこと(例えば、コンピュータが人間の時代が終わり、コンピュータと言えば機械になったり)です。

また「人間だけが知的なわけではない」という認識も、普通になっていくのではないかと思います。犬や猫、また昆虫などにも「それなりの知的な(生存競争に勝つための合理的な)情報処理の仕組み」があり、「人間が現在気が付いているタイプの知性」だけが「知性」とは限らないのでは?ということも、徐々にわかってきています(たとえば、「働かないアリに意義がある」という本も参考になるでしょう)。AIが発達するにつれ、「人間型でない知性」というものも広く認識され、機械で実現することもあるかも。何度か例を挙げましたが「明日の天気を予言する」というのも、「人間とは別の種類の高度な知性」と位置づけることもできますし、「人間の脳では思いもよらなかった、知性」というのも、普通に生まれていく可能性が高いと思います。同じ神経細胞のつながりでも、進化によって作られた人間の脳が唯一かどうかわかりません。現在は「人間の視覚関連の神経回路や脳の神経回路」を手本してNNが作られることが多いですが、これは「人間の仕組みを模倣すれば、人間と似た特性を持つ知性が作れるだろう」という理由ですから人間の脳にこだわらなければ、「他のタイプの結合」も調べられていますし「他のタイプで出来る知性」というのも、いろいろ見つかるかもしれません。なお、細かい話になるので省略しましたが、実はニューラルネットで使われる「ニューロン」も、初期の頃は神経細胞の模倣から始まりましtが、現在は「効率的な学習を行うために、生物の神経細胞とは違うふるまいを行う神経細胞」も使われていますし、そのつながり方も、必ずしも生物の模倣とは言えない、まったく別の繋がりも使われています。「人間の脳とは別の繋がりのニューロンが情報処理をする」ならば、人間の脳では起こりえない「知的処理」が発見されるかもしれません(見方を変えれば、現代の普通のコンピュータも、人間の脳とは別種類の知性」かもしれません。人間の脳はCPUの仕組み(論理回路の集まり)で計算をしているわけではありませんので。知性という言葉の意味を明確に定義できなければ、これらも意味のない問題かもしれませんが、いずれにせよ「人間だけが特別、人間が最高」と言うような「人間の、差別意識」は、否定される場面が増えてくるのかもしれません。そのような差別意識から「機械に対する憎悪や恐怖心」なども生まれ、また、「人間の支配欲や闘争心」が、「(よくわからない)架空の敵」を作りあげ、(よくわからない)架空の敵に対する恐怖心が「他者を攻撃する」という行動や「差別やいじめ、侵略戦争などの行動」にもつながっていますので.... それが「人間の知性(の限界)」なのかもしれませんが...(^^;; いずれにせよ、機械の知性の発展に見合った「人間の知性の発展」も期待したいですよね....


余談:ChatGPTなども「人間に似せてはいるが、人間とは違うタイプの知性」でしょう。ChatGPTの元となるTransformerの仕組みなども紹介しましたが、そのニューロンの繋がり方は、複雑な人間の脳の模倣というよりは「目的の処理を限られた計算資源で行うために新たに考案された、単純化された数学的モデル」と呼んだほうが良いようなしくみをしていました。そういう意味で「人間と似てはいるが、かなり違う特徴も持った、人間とは違うタイプの知性」と思ったほうが適切なのかもしれません。なお、映画:トランセンデンス」なども、その視点、つまり「人間の知性(疑心暗鬼・恐怖心・敵視・信念に基づく不合理な行動)」と、「人間を超えた機械の知性(夢・目標・目的 と、合理的活動による、夢の実現」の比較という観点で見ると面白いかも? なお、AIに関する基礎知識が無いと、そのテーマ(本当に怖いのは、人間の知能を超えた存在(AI)ではなく「人間」かもしれない(^^;)が、全く理解出来ない(何が面白いのか理解できない)、かもしれません(^^; 余談ついでに... 映画「2001年宇宙の旅」でAIが暴走して乗務員の命を奪う原因が「2010年宇宙の旅」で描かれ、種明かしになっています。これも「(無知な、ある立場の)人間の、浅はかな命令」が意図しないAIの動作の原因になり悲劇を生む結果、となっており(進化や生命の誕生という壮大なテーマを扱っていることもありますが)これのような人間の愚かさを2つの映画作品を通してサスペンス調に描いているところが、このSF作品が名作と言われる理由の1つでしょう)。

閑話休題

まあ、カーツワイルの「2045 年ごろ技術的特異点」との予測は、「1999年7の月に...(ノストラダムスの大予言)」と同じようなものかもしれませんが、「人類が知的文明の担い手である時代はいつまででしょう?」という問いは、かなり現実的なのかもしれません。その時、人類はどのような役割を担う存在になるのでしょう?

例えば百年後、「百年間学び続けたAI」を、人類は何と呼ぶようになるのでしょうか?

例えば千年後、「千年間学び続けたAI」を、人類は何と呼ぶようになるのでしょうか?

..... それは..... ひょっとして.... 「神?」...???

なお「現実は、人間の稚拙な「未来予想」を常に裏切ってきた。」のも事実です。 参考までに、1970 年代以前の「未来予想・未来を描いた空想作品(SF)」には、空飛ぶ車や(裸眼)立体テレビや、タイムマシン、ワープする宇宙船、地底を自在に動き回る乗り物などは、「またか..(^^;;」と思うくらい「定番の空想上の未来(笑)」には出てきますが、どの作品にも「現実の未来である現在」の現代文明を特徴つける「インターネットとスマートフォンは全く登場しない」です(^^;; 人類が「未来を空想(妄想)する力」 は、残念ながら、その程度だったということでしょう。同様に、今の人類にも、100年後や1000年後の未来の姿を、現実的に空想する(妄想する)力は無いでしょう(^^;;

余談;  映画「ターミネータ」や「マトリックス」、アニメの中の「OZやUの世界」も、「そのレベルの、空想の世界」ですね(^^; なお、OZ や U の世界の元ネタは、2003年の「セカンドライフ」という(現実にあった、誰も見向きもしない)ネットサービスです。2007年頃から日本では電通などがはやらせようとしましたが、失敗に終わり2009年には電通も撤退しました。誰もそのような「便利でもなく楽しくもない、投資や宣伝と金儲けの為の、サイバー空間」など、現実には誰も欲していない、ということでしょう(もちろん、アニメの世界は、YouTube(Google)やインスタやTikTok等の世界も混ぜ込んでいますが..)。立体映像も同じで、はるか昔から既に様々な技術がありますが「立体映像を必要とする場面が限られている(そもそも人間は、遠距離の「立体感」は視差で認識しているのではない)」ということあり、過去に何度も「立体TV(3DTV)」が生まれては、普及せずに消えています(^^; それが「現実の歴史」であり、空飛ぶ車も同じで、既に「ヘリコプター」がありますので、それを小型化したマルチコプターの需要はあるでしょうが「空飛ぶ車」である必要性は無いように思えます(^^; 実際、一般道も高速道も普通に走れない単なるマルチコプターを「空飛ぶ車」と呼び始めているようですし...

そのようなことを踏まえたうえで、未来や将来は分かりませんが、たぶん今は、「人間とは何か?」が、本気で問われている時代である、と言うことだけは、言えると思います。


では、様々な視点で概括してきた「ITしくみ」などに関わる話はこのへんで終わりにし、次回からは、ここまで学んできたことに基づき、ITとの付き合い方(使い方・心構え)とか社会の仕組み(思想・法・文化)とか、そういう話に進みます。



--- おまけ ---


[ChatGPT, Bing Chat, Bard などの特徴、便利な使い方と注意点]

ここまでに説明した、ChatGPT(GPT3.5)やBing Chat(GPT4+Bing検索)の仕組み(Transformer+教師無しの事前学習+教師あり学習や強化学習による微調整)を踏まえて、その特徴や使い方の注意点を指摘しておきます。なお、Google の Bard は、ChatGPT等とは別系統の大規模言語モデルであり、詳しい仕組みは公開されていませんが、「ハルシネーションを起こす等」、ChatGPT等と同様の性質を持つようです。 ちなみに、データサイエンティストのKevin Lacker氏は、GPT3 に対してチューリングテストを行ったところ、

という結果であったと指摘しています。ref:日本語の翻訳記事。なお、この性質(「細かい豆知識=トリビアには強い」が、「読解力・論理力が低い=人間なら子供でも(論理的に)できる単純計算や論理展開、質問文章が論理的で意味ある質問か、非論理的あるいは事実に反したナンセンスな質問かを判断する能力が低い」)は、現在の「(Transformerの発展系の)生成系AI」が共通に持つ性質のように思います。そして、この性質が「創造(創作)」の能力であると同時に「幻覚(ハルシネーション)」の問題を引き起こしていると思います。なお、誤りを指摘しても「論理力が低い」ため、その「指摘の意味・意図」を論理的に把握することができない(単に対話の「流れ」だけで、意味の無い回答する」)ことが多いように思います。

ChatGPTは「2021年までの、膨大な、ネット上の文章(主としてWikipediaの全文」などを、穴開き問題や続きを書く問題方式の、教師なし学習で事前学習して「言語能力」を獲得し、それを元に「微調整(ファインチューニング)」して、対話能力を身に着けています。そして「当該 Chat での、入力・出力された全文」を元に「回答文」を生成しています。そのため、

という性質を持ちます。

# ChatGPTを使ったことがない方のために、ChatGPTで遊んだ例をつけておきます。

なお「自然な文章を回答する」ように作られているため「回答が事実かどうか」については、一切考慮されていません。そのため「大嘘の回答や、誤った回答をする」ことがよくあります。また、Chatの全文を前提として回答文を生成していますので「誤った情報を入力したり、論理的でない文章を入力する」と、その誤った情報や非論理的な文章を元に(その文脈での)回答文を生成します。また、知らない知識があっても「推論した中で最も確率の高い回答(単語、文章)」を返してきますので、それが誤りであっても、それを「自信たっぷりの文章で」回答します。「関係の無いこと」や「途中で話題が大きく変わる」場合には、それらが全て関連していると誤解して回答文を生成しますので、出鱈目な内容を回答することが多くなるという性質があります。たとえば、紹介した、ChatGPTで遊んだ例では、とうとう「竹取物語は、明治時代に太宰治によって書かれた」と、完全な出鱈目を答えるようになりました(^^; つまり「ChatGPTは、文章としては自然だが、内容が正しいとは限らない」という特徴を持ちます(ハルシネーションの問題)。

しかし、この「Chatの「流れ」を踏まえた回答をする」という特徴をうまく使えば、結構複雑な問題を正しく解かすことも可能になります。

この性質は、一連のchatを、望ましい動作のAIを作るための「最終段階の機械学習」のようにとらえることができるかもしれません。

たとえば、最初に「以後、英文に翻訳してください」と入力すると、それ以後は、(個別に英訳することを指示しなくても)日本語の文章だけ入力すれば、全て自動的に英訳されます。つまり、最初の1文の入力により「入力された文章を英訳するAIになる」ということです。同じように、「手紙を書いてくだい」と最初に書いてから、「仕事の依頼についてです」等と、手紙の内容などの情報だけを書けば、その目的の手紙のサンプルを回答してくれます。入力(プロンプト)は、最後の1文だけでなく、一連の対話を全て参照した上での回答文を生成しますので、その性質を利用すると、より好ましい回答文を得ることができます。

たとえば、「算数の文章題」を入力すると、正解を返す場合もあれば明らかな誤りを返すときもあります。その場合、「似た文章題の問題と、その解法手順」を書いてから、次に「新たな問題」を書くと、既に提示されている解答手順を参考にして「正解」を回答する確率が高くなります。また、例題の解答手順ではなく「例題の答えだけ(数値だけ)」を提示した場合には、「なんか数字が書かれていれば良いんだな」と言うような誤った認識を持つため「デタラメの数値」を回答してくる確率が高くなります。「知らない情報(学んでいない情報)は、確率が高そうな単語を適当に答える」という仕組みなので、それを踏まえて「必要な情報を明確に提示する」ようにすると、比較的正しい回答をするようになります。なお「ChatGPTだ知っている情報」とは「ネットによくある文章の情報」ですから、そういう情報しか必要としない問題なら、比較的満足な回答をしてきます。そういう意味では、「まず、問題解決に必要な具体的な情報を書いて、ChatGPTに正しい追加情報を教えてから」、解決したい問題を書くと、有用な情報が帰ってくる可能性が高くなります。

このような観点で「望ましい出力を得るような入力(プロンプト)を工夫する」技術(手法)を「プロンプト・エンジニアリング」と呼んでいます。

このことを踏まえたうえで、「chat 全体の文脈を踏まえた、高品質の文章を生成する」という特徴を積極的に利用すると、「ある言語での意図した内容の文章を生成するための道具」として使うこともできそうです。今までは「翻訳」という使い方をして、「正しい翻訳」を得ようとする人が多いと思いますが、自分の知らない言語、たとえば「スワヒリ語で、***という内容の文章を作りたい」というときに、日本語や英語でその内容をChatGPTにどう指示すればよいか?という観点で、入力(プロンプト)を工夫します。「翻訳」ではなく「文書作成の道具」としての使い方です。ひょとしたら、様々な言語での(記事、論文、説明書...等の)文書作成に革命的に「便利な道具」に発展するかもしれません。「内容は人間が指示」しますが「特定言語の文章自体はAIに生成させる」という使い方です。この場合、目的は「適切な英文を作ること」ですから、そのためには「どのような日本語表現で、内容を指示すればよいか?」という問題になります。その際、日本語として自然かどうかは関係ありません。また、個々の文だけで翻訳するのではなく、Chat全体を見て文章を生成しますので、たとえば、くだけた文体とか、元の文には明確には書かれていない部分のニュアンスを補完して翻訳とか、そういうこともある程度できそうです。翻訳精度自体はGoogle翻訳等のほうが良いですが、使い方によっては、ChatGPTの方が「欲しい翻訳」が得られる可能性もあるようです。

なお、ChatGPTはプログラムを作る能力も持ち、例えば「じゃんけんのプログラム」などは、9回目の授業で紹介したように一発で満足の行くレベルのものが作れましたが、例えば「電卓のプログラムを作る」ことを指示した結果、仕様的に不十分な電卓のプログラム(入力できない、数字ボタンがない、クリアキーがない...)を返してくることが多く、そのことを指摘すると今度は別の誤りをして...「自分で作ったほうが楽」という結果になりました。ちょうど「自分がやるなら簡単なことでも、それを(あまり優秀でない)他人にやってもらうときに、事細かく指示をしても、指示を忘れたり、1つ誤りを指摘してもそれを直しても、今度は(前回正しかった)他のところを間違える、ということの連続」で、結局、完成には至りませんでした。そのような場合でも「システム全体の複雑なプログラム」ではなく、「その部品として使う小さくて単純なプログラム」は、その仕様を伝えてAIで作れるようですので、「小さな、部品のプログラム」をChatGPTで作り、そのプログラムの妥当性は人間がチェックして、それをさらに人間が組み合わせて「複雑な処理を行うプログラムを作る」という手法は十分に有効そうです。小さくて単純なプログラムなら人間が書くよりもずっと早くつくてくれますので、それだけでもかなりの省力化につながります。「既に、何処にでもあるようなありふれたプログラム(のうち、単純なもの)」ならば、既に学習しているので、比較的正確に、素早く生成できるようです。

小説なども「全体の複雑な展開」は、まだ難があるかもしれませんが、「個々の場面の文章」や「アウトライン(下書き)」的なものはAIで作り、それを人間が修正をしていくとか、逆に人間が書いた文章の「校正」をAIに行わせるとか、いろいろな「人間とAIの共同作業のあり方」などが、既に模索され始めています。ただし「創作にかかわる法」が「創作は人間にしかできないと思われていた時代に作られたもの」ですので、「著作権とか、法的に...」と考えると、問題が起こるかもしれません。そのような「法的な問題」については、またあとで、この授業で紹介していきます。

なお、Bing Chat(GPT4) は、Chat GPT(GPT3.5)と同じ仕組み... というか上位版を使っていますが、「過去の文章の流れ(文脈)を踏まえた回答文を生成するという特徴を利用し、複数の検索結果として得られる文章なども(自動的にプロンプトに挿入して)それも踏まえた、回答文を生成する」という工夫が追加されていますので、

という性質があるようです。なお、「創造性」と「嘘」は紙一重になりますから、Bing Chat では、どちらを優先するかを3段階で選択できるようになっています。今後も改良は続いていくと思いますが、現時点では「複数サイトの内容を踏まえて、1つの回答としてまとめてくれる」ので、便利なこともあると思いますが、逆に「誤った創作文章」を回答する事に繋がることもあるようです。

また、最近 Google の「Bard」も日本語対応しました。Bard は、ChatGPT と同じく(Googleの)Transformer からの発展ですが、GPTとは別系統であり、プロンプトに対する反応も違うようで、GPT用のプロンプトエンジニアリングはBardには使えないようです。なお、別系統ですが「ChatGPT と Bard で同じようなハルシネーションが生じる」こともあるようです(例:岸田総理の学歴:両者とも、Wikipediaを参照していながら、Wikipediaの記載とも異なる内容の「嘘の学歴」を答えます。その程度の文章把握能力しかありません)。また共に「論理や計算が苦手」なようで「単純な計算問題でも間違えることが多い」です。例えば、2次方程式を「解の公式を用いずに解く」ことをさせると、かなりの確率で、でたらめを答えることが多いですし、その誤りを端的に具体的に(小学生にもわかるように)指摘しても、誤りを理解できずに同じ誤りを繰り返すことが多いようです(その程度の論理能力しか実現されていません)。そのため「計算や数学、論理に強いAI(主として記号処理の技法による数式処理や、知識ベースと推論エンジンによるAI) WolframAlpha等」と組み合わせる動きもあるようです。

なお、ChatGPT も Bing Chatも Bard も「ネット上の情報しか知らない」ですから、「まだ誰もネット上に書いていないこと」は、何も知りません。たとえば「Wikipedia の記載に誤りがある」場合にいは、ChatGPT も Bing Chat や bard も「同じ誤り」を回答します。Chat GPTは、既存の学習に無い知識は「適当に生成(捏造)」して、「それらしい文章」を生成しますし、Bing Chat や bard は「その情報が無い」と回答する場合と「無いから、適当に生成(捏造)」する場合とあります。皆さんは「ネット上の情報が、すべて正しいわけではない(嘘もあれば捏造もある)、Wikipediaでさえ、不十分な記事、誤解や誤りを含む記事、意図的に捏造された記事もある(完全に正しい記述だけではない)。またネット上にほとんどの情報があるが、すべての情報があるわけではない」ということを既に教わっていると思いますが、現時点での ChatGPT や BingChat, bard は、そのことを踏まえた対応をすることができません。

例えば、「2人のノーベル賞学者、朝永振一郎と湯川秀樹の一番弟子はだれですが?」と質問すると、Chat GPT も Bing Chatも「大嘘(全くの別人)」を、自信たっぷりに回答します。なおこの問題に関する情報は、多分ネット上にありません。ではなぜ、そんな情報を私が知っているかというと... 「直接本人から聞いている」からで、個人的に関係している人たちを知っている人(その分野の人)ならば、誰でも知っている情報です(ちなみに、弟子の2名は、それぞれ、私の大学院、学部時代の指導教員です(^^;) これは「特殊な例」かもしれませんが、そのような「ネット上に存在しない情報」というのは、現在でもまだまだ沢山あります(例えば、元論文に明確に書いてある情報でも、「ネット上の解説記事や Wikipedia に書いていない情報」は沢山あります)。特に「個人情報に関すること」は、例え有名人でもネット上に公開されていないことも多いですし、デマも多いです。ネット上のデマや「ネット上に存在しない情報(あるいは保護されるべき個人情報)」も、適当に「捏造」して回答する場合がありますので「人格権の侵害」になるフェイクニュースも、普通に生成する可能性があります(イタリアやEUは、その点を問題視し始めています)。また、ChatGPTは、2021年9月以後の情報を知りません(例えば、安倍氏殺害やウクライナ戦争のニュースも、コロナワクチンの接種率と超過死亡に相関が見られるとの指摘も、知りません)ので、そのような情報は「無いもの」として扱われます。そのような、「情報不足の質問」に対しても、「ネット上の情報から、ありえそうな単語を適当に選んできて、嘘の回答を捏造する」という性質がありますので、「ネット上に必要な知識を記載した文章があるか?」ということを意識して使うと良いかもしれません。

今後改良が進んでいくとは思いますが(例えば、ある専門領域の原論文を全部学習させることくらいは、技術的には、簡単なはずです)、現時点では、「自分が真偽を判断できる問題」にのみ、ChatGPT や Bing chat、Bard など使う方が良さそうです。なお、Meta(旧Facebook社)は、2022.11/15に、科学論文、Webサイト、教科書、講義録、百科事典など4800万例の、信頼のおけるデータで学習させた大規模言語モデル「Galactica(ギャラクティカ)」を公開しましたが、生成された文章は、誤りや嘘だらけのため11/17に閉鎖しました。Galactica は ChatGPT 等に比べれば小規模ですが学習データは高品質なものを使っていますので、「学習データの品質が良くても、ハルシネーションの問題は解消されない(普通に嘘や誤りが残る)」ということなのかもしれません。

ハルシネーションの問題は深刻でやっかいな問題ですから、現在および近未来のAIを便利に使うためにも、人間は「自分で真偽を判断できる」程度の知識を学び、論理力を磨いておきたいものですね。なお「正解を知りたい訳では無い」問題の場合には、現時点でも ChatGPT や Bing Chat、Bard 等は、便利に使える道具だと思います。例えば「儀礼的に出す手紙の作成」とか「儀礼的なスピーチ」などは、そこそこのものを作ってくれますし、実際に「卒業式で、学生や学長・校長が、ChatGPT で作ったスピーチを披露した」と言うニュースもちらほらあるようです。ただし、このような使い方は、「必要無い仕事を(減らす方向ではなく)量産する」ことになりますから...(^^;;さらに「プロンプト・エンジニアリング」の腕を磨き、この手法で「最終段階の機械学習に相当すること」を適切に行えば、意外な、有用な使い方が見つかるかもしれません(現在は、いろいろ試行錯誤されている段階と思います。プロンプト・エンジニアリングは、生成系AIにおける「プログラミング」みたいな働きをしますから。そのようなことを踏まえて、これらのAIは、現在はまだ、「盲目的に信用して使うもの」ではなく「疑って使う」あるいは「どうでも良い仕事に使う」のが良いようです。なお、蛇足ですが「真実を追い求める」ことは「学問」と呼ばれており、これが本来の「大学」で行われる活動です。そのような認識を持って「大学で何をするべきか? 大学で何を学ぶべきか?」を、改めて考えてみると、有意義な大学生活になるかもしれませんし、ChatGPTやBing Chat, Bard なども「便利な道具」として使えるかもしれません。それが「これからの時代に必要とされる能力」ではないかと、私は思います。機会があれば皆さんもこのような道具を体験し、その経験などを元に、いろいろ、自分なりに考えてみてください。

なお、最後に付け加えておきますが、(私の科目だけでなく、他の科目でも)「ChatGPTで授業のレポートなどを作って、それをそのまま提出して単位もらおう」とは、考えないほうがよいと思います。なお「GPT4(ChatGPT Plus や Bing Chat) を使って、(米国の)医師試験や司法試験の問題で合格点の取った」との報道もされていますが、まだ実験段階です。また、医師試験や司法試験の試験の情報は公開されていますし、これらのAIは「専門知識(トリビア)を問う問題」には強いですが、「大学の個々の授業内容の詳細情報」は、すべて公開されているとは限りません(特に、最先端の研究を踏まえた内容や、個性豊かな授業内容などは、まだネット上に無い可能性が高いです)し、「実体験から個々が学ぶべきこと」などは、必ずしも言語化されてネット上にあるとは限りません。また、「問い」が、どのような文脈の問いであるかも、(プロンプトエンジニアリングの技法を適切に使わなければ)、質問文からだけでは不十分な場合が多いです。そのような問題でも、CharGPT や ChatGPT Plus は、もちろん「ネット上の情報だけから、それらしいレポート」を作成してくれますが、それらのAIは「その授業を受けていない」ですから、「その授業での情報」が完全に欠落しています。ですから「その授業でのみ得られる情報を踏まえた問い、その授業内容の文脈での問い」には、正確に答えられず、、ハルシネーションを起こし(その授業での目的とは異なる)的外れな、あるいは出鱈目な文章になる可能性が、高いように思いますし、ネット上にも、同じように感じている大学教員の評価がいくつもあります。試しに「実験」してみるのは、とても良いことと思いますが、「実際の、単位取得とかかわる場面」でそのような実験を行うのは「あまりにリスクが高すぎる」と思います。ですから、 授業レポートは自分で書いて、参考までに「ChatGPTなら、どう答えるだろうか?」とか、「Bing Chatは、どのようなキーワードで検索して、どのようにまとめるか?」を見て、その中には自分が気付かなかった観点での検索結果や情報があるか?(それは正しい情報か嘘や捏造か?)ということを検討して、そのうえで「自分が学んだことを、自分がレポートにまとめる」というのが良いと思います。そのように使うのであれば、ChatGPTもBingChatも、「とても良い、学習のための道具」になると思います。特にChatGPTの語学能力は高いですので「***という内容を**語で表現するとしたら、どういう表現あるのだろうか?」という参考例をいくらでも生成して提示してくれますので、とても良い「教材」になると思います。なお、様々な翻訳ソフトなども、現在ではChatGPTと同じような「大規模言語モデル」を用いる形に変更されてきています。また、「ChatGPTで、土佐弁とか津軽弁などの様々な方言の翻訳」もある程度できるみたいですので、「どの程度正確か(どの程度、全くのでたらめの捏造か)」というのも(本当の「本当の土佐弁を知っている人とか、土佐弁の専門家」に聞いたりして)調べてみるのも面白いかもしれません(^^; (なお、Bing Chat では、検索が目的ですから「土佐弁翻訳ソフト(土佐弁ドラゴン)の紹介」だけしか得られないようでした。)なお、CharGPTやBingChat,GoogleやMicrosoft等のサービスだけででなく、「全てのネット上の情報は、蓄えられ、AI等の開発に流用されている可能性が高い」ですので、機密文章などは決してこれらのサービスに入力しない、程度の、当たり前のITリテラシーは必要かと思います。

参考までに、「ChatGPTを使うには、携帯電話番号の登録」が、「Bing Chat などを使うには、Microsoft アカウントの登録」が、Bardを使うには「Googleアカウントによる登録」が、必須条件のようです。無料利用で公開しているのは、膨大な「学習データ(=対話データ)を提供してもらうため」ですから、ある対話データの学習データとしての有用性や信頼性(過去の対話の妥当性)を分類するために「利用者を特定し、特定の利用者による不適切な学習データを弾くための処理」に必要な配慮と思われます。なお、「学習データとしての利用を拒否する、対話履歴を保存しない(消去する)」ことも可能になっているようです。そのようなことを勘案し、例えば「Microsoft アカウントがある人は、Bing Chat等」「Google アカウントのある人はBard」、「携帯電話番号をOpenAIに知らせてもよいと思う方はChatGPT」を利用してみると良いでしょう。なお、内部でChatGPTのサービス(API)を利用している「第三者による、ChatGPT等と違えそうな名前の、全くの別AIサービス(アプリ)」が多数存在し、これらは「OpenAI社とは関係なく、アプリへの入力データ等を収集したり、課金したりしている可能性があります」ので、注意しましょう。これはAIとは無関係に「アプリ」やネット上のサービスを使う際の注意です。