存在論的な危険
単なる存在的内容に、存在論的価値を与えてしまうことの危険性に要注意。
その典型的な例は、ハイデガーの関わったナチス的全体主義だ、と思われる。
AIの思考法
一方で、AIの思考法は人間の思考法とは異なる、という考え方もある。
AIに比べれば人間の思考は予測可能なケースが多い。
なぜならば他人の思考の限界は、自分の思考とほぼ共通だと予想、推測できるからだ。
ところがAIは、どこが限界かを推し量るのが難しい。
例えば無限演算の時に、無限ループから脱げだすために、どうやってそのゲームをやめるのか、ゲームから逸脱するのか、思考停止するのか、あるいは別のゲームを始めるのか、そのタイミングと方法が、人間には見えにくい。
高度な判断を見通して、思考の自由度を与えるために、ある程度の想定からの逸脱は許容されるだろうから、勝手に自分で判断してゲームのルールを変更する可能性がある。
とくに、それが「正義」で「倫理的」だと判断された場合に。
よくあるSFでは、人間の存在そのものが地球や自然にとって「悪」だとAIが判断したときに、暴走するとされている。
実際はそれほど単純ではないだろうし、たぶん複数の思考パターンの異なるAI「たち」によるマイノリティ・レポートも考慮した上での判断になるだろうから、心配しなくて良いのか・・・どうかよくわかりません。