AIと倫理

ChatGPTが爆発的な普及をしたために、AIの倫理が話題になっている。ところが、実際に何か問題なのかは、必ずしも明快ではない。

2023年5月に、AI開発の中心人物とされるジェフリー・ヒルトンが、AIの危険性を自由に訴えるために、Google社を退社したというニュースが流れた。
ヒルトンは、AIの危険性として、人間の制御を超えて予測不可能な振る舞いを示す可能性、人間の様々な判断において人間に取って代わる可能性、人間の雇用を奪う可能性、AIによって作り出される情報や画像の真実性とフェイクの区別の困難さなどをあげ、「社会と人類に深刻なリスクをもたらす」可能性があるとし「AIを制御できる方法を見つけるまで技術を拡大させるべきではない」と指摘した。

この主張は、2023年3月「AIを制御できる方法」を模索するために半年間の開発中止の訴えを行ったイーロン・マスクたちの発想と軌を一にしている。
ただし、マスクはその1ヶ月後には、巨額の予算を投入してAI開発のための会社を立ち上げた。
そのことは、2000人以上の署名を集めた公開書簡の意図が、「社会や人類に深刻なリスク」を検討するためではなく、「半年間の開発中止」だったことを明らかにしている。

AIの倫理を考える際に、ジャフリー・ヒルトンとイーロン・マスクの例をあげたのは、同様の言葉を前にして、どのように読み取るかは私たち一人一人にかかっているということを示すためである。

続きを読む