研究:人們不再區分人類溝通和 ChatGPT
Posted: Tue Dec 03, 2024 5:36 am
1637 年,法國哲學家和數學家勒內·笛卡爾 (René Descartes) 問機器是否可以思考。 300多年後,英國數學家阿蘭‧圖靈將這個哲學問題重新表述為更實用的問題,後來成為所謂圖靈測驗的基礎。他問:「機器與人的溝通方式是否可以讓他不明白自己是在與機器人而不是與與他相似的人進行交流?」。
現在,來自聖地牙哥加州大學的科學家相信他們已經找到了這個問題的答 英國商務傳真列表 案。他們進行了一項研究,讓受試者與其他人或不同的人工智慧模型進行五分鐘的溝通。
結果發現,54% 的情況下人們將 GPT-4 誤認為另一個人。 GPT-3.5版本達50%。同時,人們認出其他人的機率為67%。 ChatGPT 的成就可能看起來像是猜測。然而,科學家強調,在這種情況下,實驗參與者知道他們可以與人或神經網路進行溝通。在日常生活中,人們對於人工智慧可以成為他們的對話者這一事實還沒有做好準備。
另外,為了進行比較,ELIZA系統參與了實驗。它是 20 世紀 60 年代中期麻省理工學院為了通過圖靈測試而發明的。在當時,它是一台令人驚嘆的機器,但是,當然,它無法使用現代神經網路運行的大量語言資料。
ELIZA 僅限於更快的標準回應。短時間內,她就能誤導別人。但很快與機器的溝通就變得顯而易見了。
「現代語言模型具有無限的靈活性。他們能夠綜合各種問題的答案,說不同的語言,使用來自不同社會群體的不同特定詞組和術語,甚至表現出性格和價值觀。與人類手工編程的東西相比,這是一個巨大的進步,無論他們多麼聰明和有才華。人工智慧科學家內爾沃森 (Nell Watson) 說。
如果 ELIZA 的得分也達到猜測水平,那麼就可以說實驗參與者不小心試圖「擊中靶心」。而在 ELIZA 實驗中,只有 22% 的受試者被誤認為一個人。
論文作者確信這證明了ChatGPT能夠通過圖靈測試。然而,他們並不認為這等於承認神經網路和人類一樣聰明。這種形式的圖靈測試旨在讓測試對像在某些語言或社會方面發現機器,而不是在智力方面。粗略地說,它是關於神經網路是否能讓人們相信它是人類,而不是它是否可以像人類一樣思考。
科學家強調,他們的實驗不僅證明了神經網路的突破性能力,也證明了它們潛在的危險性。畢竟,此類模型可能會被詐欺者利用。
更有趣的是:
一個字怎麼能顯示你是人類呢? — 短圖靈測試
機器人能取代真正的藝術家嗎?人工智慧如何畫圖
人工智慧能否取代醫生?
現在,來自聖地牙哥加州大學的科學家相信他們已經找到了這個問題的答 英國商務傳真列表 案。他們進行了一項研究,讓受試者與其他人或不同的人工智慧模型進行五分鐘的溝通。
結果發現,54% 的情況下人們將 GPT-4 誤認為另一個人。 GPT-3.5版本達50%。同時,人們認出其他人的機率為67%。 ChatGPT 的成就可能看起來像是猜測。然而,科學家強調,在這種情況下,實驗參與者知道他們可以與人或神經網路進行溝通。在日常生活中,人們對於人工智慧可以成為他們的對話者這一事實還沒有做好準備。
另外,為了進行比較,ELIZA系統參與了實驗。它是 20 世紀 60 年代中期麻省理工學院為了通過圖靈測試而發明的。在當時,它是一台令人驚嘆的機器,但是,當然,它無法使用現代神經網路運行的大量語言資料。
ELIZA 僅限於更快的標準回應。短時間內,她就能誤導別人。但很快與機器的溝通就變得顯而易見了。
「現代語言模型具有無限的靈活性。他們能夠綜合各種問題的答案,說不同的語言,使用來自不同社會群體的不同特定詞組和術語,甚至表現出性格和價值觀。與人類手工編程的東西相比,這是一個巨大的進步,無論他們多麼聰明和有才華。人工智慧科學家內爾沃森 (Nell Watson) 說。
如果 ELIZA 的得分也達到猜測水平,那麼就可以說實驗參與者不小心試圖「擊中靶心」。而在 ELIZA 實驗中,只有 22% 的受試者被誤認為一個人。
論文作者確信這證明了ChatGPT能夠通過圖靈測試。然而,他們並不認為這等於承認神經網路和人類一樣聰明。這種形式的圖靈測試旨在讓測試對像在某些語言或社會方面發現機器,而不是在智力方面。粗略地說,它是關於神經網路是否能讓人們相信它是人類,而不是它是否可以像人類一樣思考。
科學家強調,他們的實驗不僅證明了神經網路的突破性能力,也證明了它們潛在的危險性。畢竟,此類模型可能會被詐欺者利用。
更有趣的是:
一個字怎麼能顯示你是人類呢? — 短圖靈測試
機器人能取代真正的藝術家嗎?人工智慧如何畫圖
人工智慧能否取代醫生?