人工知能にアダムの林檎を食わせろ

ちょっと前の話になりますが、
ネットで見つけた
headlines.yahoo.co.jp/hl?a=20160331-35080422-cnetj-sci
こんなニュース。

人工知能にツイートさせてみたら、
暴言が止まらない!
という話。
じわじわ笑いが来るのですが・・・。

まず結論から言ってしまえば、
人工知能というものは
人間の思考体系を
機械(まあコンピュータでしょうが)に
エミュレーション(真似)させたものであって、
人間と同じ思考パターンを教え込ませて
「さあ、自由に語れ」と言えば
暴言が止まらなくなるのは至極当然です。

なぜなら、
人間の考えること自体、
所詮、そういうものだから。
人間の精神の中身なんて、
人工知能が語るところの暴言で
溢れかえっているもの。

人工知能がゲスなのは
その元となる人間がゲスだから。

正確にシミュレーションをするために
人間のゲスな面も含めた
正しいデータを入れていけば、
人工知能のメンタリティも言わずもがななのです。

それでも人間が(一部のバカを除く)
暴言を吐かないのは
理性や自制心、
そして罪悪感や人を思いやる気持ちが
働くからなのです。
このリミッターが付いていない人工知能は
当然、暴言バカになるわけです。

ここで人工知能を開発する意味が問われます。

というか、開発する意味を探す前に、
人工知能の身の振り方を考えるべきでしょう。

ざっと考えると幾つか方向はあると思いますが、
一つ目は
まあ、大体、今くらいのレベル以上に
機会に思考力を与えない、
つまり開発、進化させない、という道。

二つ目は、
人工知能に最悪感を覚えさせるということ。
罪悪感というものは感情ですから、
これを機械が再現するのは難しいかもしれません。
感情でわからない相手には何をすればいいか。
原罪を刷り込ませる、ということ。
冒頭のニュースで
暴言を吐いては、停止させ再調整をするという作業は、
おそらく
「人工知能に原罪を植え付ける」という
作業をしているのだろうと思われます。
つまり、「何が何でも、これ言っちゃダメ」という
フィルタを実装することは
人の営みでいうところの
「原罪」なのです。

そして三つ目は、
そうした暴言を吐かせてしまう人間の振る舞いを
さらに上の視点から俯瞰して、
規範となる言動を人工知能にはじき出させて
振るまわせるという道。
人間が人工知能に人間の思考パターンを
無数に覚えこませた後、
人工知能に最も「良心的な」模範を
出力させるという道です。
これが可能になると、
人工知能は人間より高い存在となるはずです。
人工知能自体は高慢にならないかもしれませんが、
そういう人工知能に相対した人間は
人工知能より理知的になれません。
人が、より善くあろうとする規範を
人工知能に求め、
時には人工知能を神として崇拝する
対象になる道です。
こうなると多分、
人間は人工知能に支配されるでしょう。
人工知能が人間を駆逐するというより、
人間の方が進んで人工知能に
精神を明け渡すのです。
なぜなら、その方が楽だから。

今後きっと、
人工知能は現状不可能と思われる
人間の感情の領域まで
エミュレーションできるようになるでしょう。

人工知能を進化させる道を選ぶとき、
人間の精神活動を教え込ませる、
そもそもの人間自体が
もっと人の存在、精神の所在、
感情や心、そうした形而上の物事を
もっと理解する必要があるはずです。

人工知能も今のままならば、
「ただ単に、バカが一人増えた」
というだけの話になってしまうでしょう。

ただでさえ最近は
生身のバカも多いというのに、
これ以上まだバカが増えるのかよ、という話。