top of page

AIは道徳を判断できるか?

  • 執筆者の写真: 日本進化心理学IHAセンター
    日本進化心理学IHAセンター
  • 2024年1月13日
  • 読了時間: 1分

GPT3.5と道徳判断


5つの論文から集めた464の道徳的シナリオについて、人間の判断とGPT-3.5(text-davinci-003)の判断を比較した2023年の研究
GPT-3.5の判断と人間の判断はほとんど変わらなかった(r = 0.95)

「ロボットには人間とは違って創造性がない」や「AIは人間ができるように絵を描くことができない」というような話は少しずつ過去のものになってきています。


GPTのような大規模言語モデルが登場したり、ユーザーがAIイラストを作成できるようになってから、ますます人間にできて、AIにできないことを見つけることが難しくなってきました。


今回は、AI(言語モデル)は道徳的な判断ができるのか?ということについて考えてみましょう。


2023年に発表された研究では、5つの論文から集めた464の道徳的シナリオについて、人間の判断とGPT-3.5(text-davinci-003)の判断を比較しました。


その結果、GPT-3.5の判断と人間の判断はほとんど変わらなかった(r = 0.95)ということがわかりました。


もちろん、この研究だけでAIが人間と変わらない判断を行えるということを結論づけることは早計かもしれませんが、GPT-3.5の時点で、これだけの高い相関係数が確認されるということは驚愕の事実なのではないでしょうか?


参考文献:


Dillion, D., Tandon, N., Gu, Y., & Gray, K. (2023). Can AI language models replace human participants?. Trends in cognitive sciences, 27(7), 597–600. https://doi.org/10.1016/j.tics.2023.04.008

 
 

*全ての記事は科学的な知見に基づくものであり、一部の人に不利になるような思想を助長させるものではありません。

*全ての記事の内容は新たな知見等により、多少の修正が必要な場合や正反対の見解が正しいとされる場合もあります。

​*全ての記事は正確さの担保の為に、出来るだけ多くの引用や参考文献を紹介しますが、最終的な正確さの判断はご自身でなさってください。

​合同会社 日本進化心理学IHAセンター ALL RIGHTS RESERVED

  • Twitterの社会のアイコン
bottom of page