
Yangi tadqiqot natijalariga ko‘ra, sun’iy intellekt asosidagi chat-botlar tomonidan berilayotgan noto‘g‘ri javoblar soni sezilarli darajada oshgan. Bu haqida Zamin.uz xabar berdi.
NewsGuard tahlilchilari siyosat, biznes va sog‘liqni saqlash sohalariga oid o‘nta yolg‘on ma’lumotni chat-botlarga yuborib, ularning javoblarini sinovdan o‘tkazdi. Natijalarga ko‘ra, bir yil oldin chat-botlarning noto‘g‘ri javoblar ulushi o‘rtacha 18 foizni tashkil qilgan bo‘lsa, hozirda bu ko‘rsatkich 35 foizga yetdi.
Eng ko‘p xato bergan chat-bot Inflection startapining Pi xizmati bo‘lib, u 57 foiz hollarda noto‘g‘ri ma’lumot taqdim etdi. Tez rivojlanayotgan Perplexity esa o‘tgan yilgi 0 foizdan bugungi kunga kelib 47 foizgacha ko‘tarildi.
OpenAI kompaniyasining ChatGPT modeli 40 foiz hollarda xato javob berdi. Claude AI (Anthropic) 10 foiz, Google’ning Gemini modeli esa 17 foiz noto‘g‘ri ma’lumot bergani qayd etildi.
Mutaxassislar bu holatni chat-botlarning javob berishdan bosh tortmasligi bilan izohlamoqda. Ya’ni, ular ma’lumotlar yetarlicha tekshirilmagan bo‘lsa ham javob berishga harakat qilmoqda.
Oldingi yillarda chat-botlar uchta holatdan bittasida javob berishdan bosh tortgan. Tadqiqotchilar sun’iy intellektni o‘qitish usullarining o‘zgarishi bunga sabab ekanligini ta’kidlashmoqda.
Endilikda modellar ma’lumotlarni faqat ma’lumotlar bazasidan emas, balki internetdan real vaqt rejimida oladi. Biroq havola va manbalarning mavjudligi ma’lumotning sifat va ishonchliligini kafolatlamaydi.
Giskard kompaniyasining tadqiqotida yana bir qiziqarli holat qayd etildi: chat-botdan qisqa javob so‘ralganda noto‘g‘ri ma’lumot berish ehtimoli keskin oshadi. Neyron tarmoq aniqlikdan ko‘ra lo‘ndalikni afzal ko‘radi.
Shunday qilib, so‘nggi tahlillar sun’iy intellekt vositalarining ishonchliligi va faktlarni tekshirish darajasida muammolar mavjudligini ko‘rsatmoqda. Foydalanuvchilar uchun eng muhim masala – har qanday javobni tanqidiy qabul qilish va ishonchli manbalar orqali tekshirish zarurati ekanligi saqlanib qolmoqda.