GPT3.5と道徳判断
5つの論文から集めた464の道徳的シナリオについて、人間の判断とGPT-3.5(text-davinci-003)の判断を比較した2023年の研究
GPT-3.5の判断と人間の判断はほとんど変わらなかった(r = 0.95)
「ロボットには人間とは違って創造性がない」や「AIは人間ができるように絵を描くことができない」というような話は少しずつ過去のものになってきています。
GPTのような大規模言語モデルが登場したり、ユーザーがAIイラストを作成できるようになってから、ますます人間にできて、AIにできないことを見つけることが難しくなってきました。
今回は、AI(言語モデル)は道徳的な判断ができるのか?ということについて考えてみましょう。
2023年に発表された研究では、5つの論文から集めた464の道徳的シナリオについて、人間の判断とGPT-3.5(text-davinci-003)の判断を比較しました。
その結果、GPT-3.5の判断と人間の判断はほとんど変わらなかった(r = 0.95)ということがわかりました。
もちろん、この研究だけでAIが人間と変わらない判断を行えるということを結論づけることは早計かもしれませんが、GPT-3.5の時点で、これだけの高い相関係数が確認されるということは驚愕の事実なのではないでしょうか?
参考文献:
Dillion, D., Tandon, N., Gu, Y., & Gray, K. (2023). Can AI language models replace human participants?. Trends in cognitive sciences, 27(7), 597–600. https://doi.org/10.1016/j.tics.2023.04.008
Comments