2. 科学の平和的利用の失敗

科学を戦争目的の核兵器や通常兵器の開発に使用することは科学の厄災化であることは明らかですが、平和的利用を目指しても科学の厄災化になることがありえます。

その危惧のある代表的なものに「(1) 人工知能による人類滅亡のリスク」があります。又、我々人間は科学と幸福な関係を保って行く必要がありますが、そのために「(2)科学と人間の不幸な関係」が生じないように心しなければなりません。

(1)人工知能による人類滅亡のリスク

① モンスターの創造

モンスターとは人工知能のことです。

2019年冬現在、人工知能はまだできていません。

人工知能につきましては、バラ色の有用性や未来が語られる反面、その究極的な危険性も語られています。すなわち、人工知能は世界を乗っ取るとか人類を滅ぼすということです。先ず、その警鐘を鳴らしている3例を下記してみました。

例1  S.W.ホーキング博士(前出のブラックホールの特異点定理などを発表した宇宙物理学者)

「完全な人工知能を開発すれば、それは人類の滅亡を招くかもしれない」

「人工知能が自我をもって自律的に稼働し、自分自身を修正し成長させるとも考えられる。ゆっくりと進化する人間に勝ち目はない。やがては人工知能に多くの分野が支配される」

「 人工知能の発明は人類の歴史の中で最も偉大な発明だった。しかし、それと同時に人類にとって最後の発明になってしまう可能性がある。→イギリスのINDEPENDENT紙への寄稿」(フリー百科事典ウィキペディアから)

例2  イーロン・マスク氏(ロケットや宇宙開発、そしてテスラモーターズのCEO)

「人工知能に関し、(対応を誤ると)結果的に悪魔を呼び出すことになる」(フリー百科事典ウィキペディア)

例3 ビル・ゲイツ氏(マイクロソフトの創業者)

「私も人工知能に懸念を抱く側にいる一人だ」(人工知能は人間を超えるか 松尾豊著 KADOKAWA 2015年)

さて、筆者は、上掲の警鐘よりももっと強く、モンスターとなった人工知能は確実に人類を滅ぼすのではないかと憂慮しています。その理由は、人間が発明したものでありながら、「人間は人工知能の進化もその方向も制御することはできず、人間より賢くなった人工知能を支配し統御することもできない」という点にあります。このことは、上掲の警鐘例では詳しく述べられてはいません。そこで、この点について、あれこれ照らし合わせて考えてみました。