Галюцинації — вигадані чи спотворені факти, що видаються за реальні, — одна з головних проблем, що стримують розвиток технології на базі штучного інтелекту. Ось як промисловість намагається її вирішити.
Великі мовні моделі кажуть найнеймовірніші речі. ChatGPT, Claude і Bart підкорили світ своєю здатністю відповідати на різні питання. Водночас вони продемонстрували досить тривожну якість — схильність видавати за істину цілком вигадану інформацію. Це галюцинація, термін, який викликав настільки великий інтерес, що Dictionary.com навіть назвав його словом 2023 року.
Схильність LLM (від large language model, велика мовна модель) до проверка номера эстонии вигадування фактів, можливо, залишається єдиним серйозним чинником, який стримує масове використання технології.
Для багатьох тисяч компаній, які створили свої власні продукти на основі LLM на кшталт ChatGPT, ідея про те, що ці системи схильні «прибріхувати», є серйозним юридичним і репутаційним ризиком. Не дивно, що зараз одразу кілька гравців прагнуть допомогти компаніям звести до мінімуму збитки від галюцинацій.
У листопаді стартап Vectara, запущений у 2022 році, спробував кількісно оцінити проблему та опублікував таблицю моделей, що лідирують за галюцинаціями. Результати вражають. Найбільш точними виявилися GPT-4 та GPT-4 Turbo, які, як виявили у Vectara, галюцинували у 3% випадків, коли їх просили викласти абзац тексту. Найгірше показав себе Google PALM 2, у якого частота галюцинацій склала 27%.
Що таке галюцинації штучного інтелекту та як компанії вирішують цю проблему
-
- Posts: 24
- Joined: Tue Dec 17, 2024 7:22 am