Halucinacija (veštačka inteligencija)

(преусмерено са Hallucination (artificial intelligence))

U oblasti veštačke inteligencije (AI), halucinacija ili veštačka halucinacija (koja se naziva i lažiranje,[1][2] konfabulacija[3] ili zabluda[4]) je respons koji generiše AI koji sadrži lažne ili obmanjujuće informacije predstavljene kao činjenica.[5][6][7] Ovaj termin ima labavu analogiju sa ljudskom psihologijom, gde halucinacije obično uključuju lažne percepcije. Međutim, postoji ključna razlika: AI halucinacije su povezane sa pogrešnim responsima ili verovanjima, a ne sa perceptivnim iskustvima.[7]

Video snimak vijadukta Glenfinan koji je napravio model Sora, na kome se netačno prikazuje drugi kolosek dok pravi vijadukt ima samo jedan, i drugi dimnjak na očiglednoj interpretaciji voza Džakobit.

Na primer, čet-bot koji pokreće veliki jezički modeli (LLM), kao što je ChatGPT, može da ugradi nasumične neistine koje zvuče uverljivo u svoj generisani sadržaj. Istraživači su prepoznali ovaj problem i do 2023. godine analitičari su procenili da čet-botovi haluciniraju čak 27% vremena, a činjenične greške prisutne su u 46% njihovih odgovora. Otkrivanje i ublažavanje ovih halucinacija predstavlja značajne izazove za praktičnu primenu i pouzdanost LLM-a u scenarijima iz stvarnog sveta.[8][9][10][11] Neki istraživači veruju da specifični izraz „AI halucinacije“ nerazumno antropomorfizuje računare.[3]

Reference

уреди
  1. ^ Dolan, Eric W. (2024-06-09). „Scholars: AI isn't "hallucinating" -- it's bullshitting”. PsyPost - Psychology News (на језику: енглески). Приступљено 2024-06-11. 
  2. ^ Hicks, Michael Townsen; Humphries, James; Slater, Joe (2024-06-08). „ChatGPT is bullshit”. Ethics and Information Technology (на језику: енглески). 26 (2): 38. ISSN 1572-8439. doi:10.1007/s10676-024-09775-5 . 
  3. ^ а б Edwards, Benj (6. 4. 2023). „Why ChatGPT and Bing Chat are so good at making things up”. Ars Technica (на језику: енглески). Приступљено 11. 6. 2023. 
  4. ^ „Shaking the foundations: delusions in sequence models for interaction and control”. www.deepmind.com. 22. 12. 2023. 
  5. ^ „Definition of HALLUCINATION”. www.merriam-webster.com (на језику: енглески). 2023-10-21. Приступљено 2023-10-29. 
  6. ^ Joshua Maynez; Shashi Narayan; Bernd Bohnet; Ryan McDonald (2020). „On Faithfulness and Factuality in Abstractive Summarization”. Proceedings of The 58th Annual Meeting of the Association for Computational Linguistics (ACL) (2020). arXiv:2005.00661 . Приступљено 2023-09-26. 
  7. ^ а б Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin; Dai, Wenliang; Madotto, Andrea; Fung, Pascale (новембар 2022). „Survey of Hallucination in Natural Language Generation” (pdf). ACM Computing Surveys. Association for Computing Machinery. 55 (12): 1—38. S2CID 246652372. arXiv:2202.03629 . doi:10.1145/3571730. Приступљено 15. 1. 2023. 
  8. ^ Leswing, Kif (14. 2. 2023). „Microsoft's Bing A.I. made several factual errors in last week's launch demo”. CNBC (на језику: енглески). Приступљено 16. 2. 2023. 
  9. ^ „Google cautions against 'hallucinating' chatbots, report says” (на језику: енглески). Reuters. 11. 2. 2023. Приступљено 16. 2. 2023. 
  10. ^ Metz, Cade (6. 11. 2023). „Chatbots May 'Hallucinate' More Often Than Many Realize”. The New York Times. 
  11. ^ de Wynter, Adrian; Wang, Xun; Sokolov, Alex; Gu, Qilong; Chen, Si-Qing (2023-07-13). „An evaluation on large language model outputs: Discourse and memorization”. Natural Language Processing Journal. 4. ISSN 2949-7191. arXiv:2304.08637 . doi:10.1016/j.nlp.2023.100024 .