OpenAI провокира истински бум на изкуствения интелект през миналата година, когато пусна част-бота ChatGPT и той за два месеца събра аудитория от 100 млн потребители. Към момента обаче все повече назрява проблемът, че ИИ е склонен да дезинформира потребителите и за борба с това явление компанията предлага свое решение. А пък някои независими експерти са скептични доколко този метод ще бъде ефективен.
Дезинформацията или “халюцинациите” на изкуствения интелект възникват, когато модели, подобни на ChatGPT или Google Bard, изцяло си измислят информация, но се държат така, сякаш фактите са истински. “Даже най-съвременните ИИ модели са склонни да дават лъжлива информация. Те показват склонност да измислят факти в моменти на неопределеност, пишат изследователите на OpenAI в свой отчет. – Тези халюцинации създават много проблеми в областите, изискващи многостепенни разсъждения, тъй като една логическа грешка е достатъчна, за да срине много по-мащабно решение”.
Новата стратегия на OpenAI в борбата с измислиците се заключава в това, да се обучават ИИ моделите да награждават себе си за всяка отделна правилна стъпка в разсъжденията, когато те стигат до отговора, вместо да се награждават само за правилен окончателен извод. Изследователите наричат този подход “контрол на процеса”. Според тях той може да доведе до създаването на по-логичен ИИ, тъй като тази стратегия ще стимулира моделите да следват “нишката на мисълта”, както е при човека.
“Откриването и смекчаването на логическите грешки на моделите са критична крачка към създаването на съгласуван AGI (изкуствен интелект с общо предназначение), – казва Карл Кобе, математик в OpenAI, който отбелязва, че макар компанията да не е изобретила подхода, базиран на наблюдения над процеса, тя ще помогне в неговото популяризиране. По думките на Кобе, OpenAI е отворила достъпа до съпровождащия набор от данни от 800 000 етикета, които тя използва за обучение на специалния модел, споменат в изследователската работа.
Бен Уинтърс, старши съветник в Информационния център по електронна конфиденциалност и ръководител на проекта “ИИ и човешките права”, изразява своите съмнения по повод изследването и заявява, че би искал да разгледа пълния набор от данни и съпътстващите примери. “Не мисля, че изследването само по себе си намалява значително опасенията по повод дезинформацията и неверните резултати, когато изкуственият интелект действително се използва в реалния живот”, – казва Уинтърс.
Управляващият директор на института AI Now Сара Уест заяви, че OpenAI не е предоставила основни детайли за данните, използвани в обучението и изпитанията на GPT-4. “По този начин все още съществува огромна непрозрачност, която пречи на всички усилия за осигуряване на контрол в областта на ИИ, даже когато тези системи непосредствено влияят на хората”, – казва тя.