
Предложена новая система под названием TrustNet Framework, основная цель которой — усиление доверия к искусственному интеллекту. Об этом сообщает Zamin.uz.
Об этом сообщает Коммуникация гуманитарных и социальных наук. Искусственный интеллект значительно облегчает жизнь человека и повышает его эффективность.
Однако его влияние не только положительное, существуют и некоторые негативные стороны. Например, угрозы безопасности, распространение недостоверной информации и возникновение несчастных случаев.
Поэтому группа ученых из США и Франции начала работу над новой концепцией для решения этих проблем. Система TrustNet Framework состоит из трёх этапов.
Первый этап — выявление проблем и научный анализ доверия к искусственному интеллекту. На втором этапе учёные и заинтересованные стороны совместно создают новые знания.
На этом этапе изучаются основные элементы, такие как надёжность, риск, пользователь, области применения и регион.
На третьем этапе полученные результаты оцениваются с практической и теоретической точек зрения и внедряются в общество и научную сферу.
При создании новой системы были привлечены специалисты из областей инженерии, психологии, этики, социологии и права. Такой подход помогает повысить доверие к искусственному интеллекту и обеспечить его безопасность.
В результате пользователи получают возможность эффективно и безопасно использовать искусственный интеллект.