人工知能の開発過程では、「フレーム問題」という重要な問題が起こっています。このフレーム問題は、ダニエル・デネット氏という学者が考案した例がよく説明に出てきます。それは、どんな例なのでしょうか。
バッテリーと時限爆弾
フレーム問題を説明するための状況設定を見てみましょう。
仮に洞窟の中にバッテリーがあって、そのバッテリーがロボットを動かすと仮定します。しかし、そのバッテリーの上には時限爆弾が仕掛けられているのです。
ここにモデルとなるロボットがいます。このロボットは、洞窟の中のバッテリーを実際に取ってこないと、自分のバッテリーが切れて動かなくなってしまいます。それでは困りますので、洞窟からバッテリーを取ってくるように命令を受けました。
最初のロボットは、設計通りにバッテリーを洞窟から取ってくることができました。それは良かったのですが、問題なのはバッテリーの上にあった時限爆弾まで一緒に持ってきてしまいました。
もちろん、このロボットは時限爆弾がバッテリーの上に乗っているということは認識できたのですが、バッテリーを持ってくるということは、同時に時限爆弾も持ってきてしまうということに気付かなかったのです。その結果、洞窟から持ち出された時限爆弾はあえなく爆発してしまいました。つまり、ロボットは自分を滅ぼしてしまったわけです。
これではいけません。次に改良されたロボットが同じ命令を受けました。このロボットは、バッテリーを持ち出すときには時限爆弾も一緒に持ち出されてしまうことを理解できていました。
つまり、自分が何かの行動を起こしたときには、それに伴って同時に起きることに注意するようになっていました。果たして、その改良は効果があったのでしょうか。(ページ2に続く)