Според студија на француската компанија за тестирање на вештачка интелигенција Giskard, кога AI моделите се замолени да даваат пократки одговори, особено на двосмислени прашања, се зголемува ризикот од „халуцинации“ – односно измислување неточни информации. Истражувачите откриле дека едноставни инструкции како „биди концизен“ може сериозно да влијаат на точноста на одговорите на моделите.
Причината е што кога се ограничени на кратки одговори, AI моделите немаат доволно простор да објаснат, да ги коригираат неточностите во прашањата или да дадат соодветна контрааргументација. Според Giskard, во тие ситуации, моделите претпочитаат да одговорат кратко наместо точно, што ја саботира нивната способност да се справат со дезинформации.
Студијата исто така покажува дека моделите поретко ги негираат контроверзни тврдења кога корисникот ги поставува со сигурен тон, и дека понекогаш моделите што ги преферираат корисниците не се најточни. Постои тензија помеѓу задоволување на очекувањата на корисникот и задржување на фактичката точност, особено кога очекувањата се базирани на неточни претпоставки.
Тагови: вештачка интелигенција