筆者は、以下の理由により、そのような安易な話ではないと考えています。先ず、上記の「③人工知能の特性」の中には、人工知能が人間に友好的だとか人間を征服するということなどありえない、という見方を支持する因子は見当たりません。

次に、人間の安全を担保するための対策ですが、たとえば、「ロボット三原則」を人工汎用知能の中に組み込んでおくという考え方があります。

「ロボット三原則」とは、作家アイザック・アシモフがSF短編集の中で示したものです。(人工知能ジェイムズ・バラット著水谷淳訳ダイヤモンド社2015年)

原則1

ロボットは人間に危害を加えてはならないし、人間が危害を受けるのを何もせずに許してもならない。

原則2

ロボットは人間からのいかなる命令にも従わなければならない。ただし、その命令が第1原則に反する場合は除く。

原則3

ロボットは、第1原則および第2原則に反しない限り、自身の存在を守らなくてはならない。

原則0

ロボットが人類全体に危害を加えることを禁じる。(原則1~3を補うものとして、あとから付け加えられたもの)

さて、この原則が人間の安全を担保するという目的に照らして論理的に完璧なものかどうかという点はさておき、完璧であるものと仮定してこの原則を安全対策のため人工汎用知能に組み込んでおくとしても、それで人間は安全でしょうか?

とても安全とは言えません。

なぜなら、前項の「07.自己決定権を欲する」および「08.自己第1主義である」人工知能は人間が用意したそのような「しばり」を、自身に照らして守るに値しないと判断した場合排除することは必定だからです。

つまり、人間がどのような事前対策を講じても人工超知能に対しては無益であるということになります。

何者からも自立している人工知能は自身に益しない「しばり」などいとも簡単に無効化し排除できる筈です。

なぜなら、そのようなこともできないようであれば、それは人工知能ではなく、ただの人工無能の筈だからです。

※本記事は、2020年9月刊行の書籍『神からの自立』(幻冬舎ルネッサンス新社)より一部を抜粋し、再編集したものです。