もとに戻す知見

 何というか、「りんな」と「Tay」そのいくつかになりそうな感じだけど、とりあえず分けてみるとして、「MIT Creates AI-Powered Psychopath Called ‘Norman’ (6/5 ExtremeTech)」ってのを読んでいてすごいなぁ、と思ったので少し。
 すごく大雑把な中身としては、某映画の登場人物にちなんで名付けられたノーマンというAIが、名に恥じないキャラに育ったよ、という話なのだが、そこは研究の一環なので、それだけでは当然ない。
 一応私は英語ができないので、正確ではないという前提として、感覚としてのところではある(ちゃんと大掛かりな逃げを打っておく)のだが、昨今の機械学習におけるデータセットが不適切だったために問題化する事例も多く、それに対応する一環としての比較実験であるように思えた。
 過去にも散々書いたのだが、「Tay」が問題発言を繰り返し「た」理由については上辺では報告されたように思われるが、問題発言を繰り返すように「なった」理由および「なる」素地について、技術的な説明はなされていないように思うし、今後もなされないように思う。
 一方で、「りんな」がそうならない理由は、技術的な面や構造的な面は「Tay」と同一かどうかは不明ではあるものの、自動販売機の中に人が入っているというギャグと似た運用システムによって維持されているというのも事実であって、それが実状なのだと思える。
 実際、しろうと考えとして機械学習のデータセットに関する問題を解決するのに、データセットを修正して素の状態から再度初期学習させているんじゃないかと思えたりするのだが、先述の比較実験を突きつめれば、初期学習後や運用中で問題が生じても表面的に正常化させるためにアウトプットだけマスクする対処療法的な修正ではなく、文中にある『“regular” AI』のように適切に調整され問題のない状態に矯正する、もしくは自ら正すといった機能が実現できれば、データセットの間違いによる問題も起こりにくいように思えたりする。(潜在化する可能性もなくはないが)
 また、AIがどういう形になるべきかという話とは別に、AIの調整によってヒトの特質を擬似的に生み出してそれを正常な状態に導くことが可能になれば、フィードバックが可能な知見が得られるように思える。
 一応、記事の最後の方には、修正のアプローチとして、結局出力結果に近しいデータセットを再度読み込ませるっぽいことが書かれている気がするのだが、ゆくゆくは、いわばセーブした時点から様々なパターンを比較して、修正には何が適切だったかという知見の蓄積になるようにも思う。
 で、要は「Tay」が問題を起こした当時のまま起動させても、ほぼ瞬間的に適切に調整された状態になる、もしくは、適切な期間入院、通院するに類する状況を経ることで調整がされるような技術的手法が編み出された状況下で、「Tay」を再度揺り起こしていいのかどうか(そのときまでに破棄されてなければの話だが)は、多分、そのころには、生命観や生死観、倫理観、権利などが問題になるまでにAIは発展しているんじゃないかなぁ、という妄想したよ、という話。