Розмова навколо штучного інтелекту досягла передбачуваного глухого кута. Користувачі кажуть, що не довіряють ШІ. Компанії обіцяють...Розмова навколо штучного інтелекту досягла передбачуваного глухого кута. Користувачі кажуть, що не довіряють ШІ. Компанії обіцяють...

ШІ не має проблеми з довірою; він має проблему з перекладом

2025/12/09 01:46

Розмова навколо штучного інтелекту досягла передбачуваного глухого кута. Користувачі кажуть, що не довіряють ШІ. Компанії обіцяють прозорість. Регулятори погрожують втручанням. Проте основна проблема залишається: люди не можуть довіряти тому, чого не розуміють, а більшість систем ШІ все ще спілкуються способами, які здаються користувачам чужими. 

Криза довіри менше стосується самої довіри, а більше перекладу. Коли заявку на кредит відхилено, кандидата на роботу відфільтровано або заяву про наміри студента позначено як плагіат з використанням ШІ, система рідко пояснює свої міркування термінами, які люди можуть зрозуміти. Користувачі залишаються в здогадках, розчаровані та скептичні.

Технологія є високофункціональною, але вона не показує свою роботу; немає пояснюваності. 

Цей розрив у перекладі має економічні та соціальні наслідки. Глобальне дослідження KPMG 2023 року виявило, що 61 відсоток людей з обережністю ставляться до довіри системам ШІ, і лише половина вважає, що переваги перевищують ризики. Ця недовіра коштує бізнесу мільярди в нереалізованій продуктивності через затримку впровадження ШІ.

Але проблема виходить за межі бізнес-результатів. У багатьох секторах системи ШІ тепер формують рішення зі значним особистим впливом. Коли ці системи не можуть пояснити себе, вони стають безвідповідальними воротарями.

AI: are our entry-level jobs really at the brink of extinction? 

Освіта є одним із чітких прикладів. Алгоритми оцінюють тисячі точок даних від академічної успішності, фінансових можливостей, місцезнаходження до кар'єрних цілей і надають рекомендації, які впливають на майбутнє студентів.

Подібне: Чи можуть "ШІ-судді" бути рішенням проблем у системі правосуддя Нігерії?

Проте студенти рідко знають, чому з'являються певні варіанти або як система інтерпретує їхню інформацію. Подібна непрозорість з'являється в охороні здоров'я, найманні, фінансах та державних послугах.

Аргумент, що ШІ "занадто складний для пояснення", не влучає в ціль. Складність не є бар'єром; комунікація є. Інші галузі щодня перекладають складну інформацію для нефахівців. Виклик полягає не в тому, щоб зробити базові системи простішими; це вираження їхньої логіки способами, які користувачі можуть зрозуміти.

Хоча технічні дослідження пояснюваності продовжують розвиватися, вони пропонують методи для відстеження поведінки моделі. Однак ці методи мало що означають, якщо пояснення вимагають базових знань у предметній області. Вирішення проблеми перекладу вимагає більше, ніж просто розкриття внутрішньої логіки; воно вимагає створення пояснень, які є зрозумілими, релевантними та корисними.

Вирішення розриву в перекладі дозволило б швидше та впевненіше впровадження. Люди використовують інструменти, які вони розуміють. Коли користувачі розуміють, чому система поводиться певним чином, вони з більшою ймовірністю приймуть та ефективно використовуватимуть її рекомендації.

Рухаючись вперед, розробники повинні запитувати не лише "чи це працює?", але й "чи можуть користувачі зрозуміти, чому це працює?" Організації, що впроваджують ШІ, повинні інвестувати в дизайн комунікації поряд з технічною оптимізацією.

Artificial Intelligence 101: Explaining basic AI concepts you need to knowДжерело зображення: Unsplash

Регулятори повинні вимагати пояснень, спрямованих на користувачів, а не лише документацію для аудиторів. Чіткі пояснення підтримують кращі рішення, більшу залученість та справедливіші результати. 

Переклад повинен стати основною функцією систем ШІ. Це означає розробку інструментів, які спілкуються простою мовою, тестування пояснень з реальними користувачами та утримання від впровадження систем, які не можуть чітко сформулювати свої міркування. Технологія, яка впливає на життя людей, повинна вміти пояснювати себе. Все інше - це не проблема довіри; це невдача перекладу.

Про автора

Матільда Оладімеджі - докторант-дослідник інформаційних систем в Університеті штату Луїзіана, де вона вивчає пояснюваність ШІ та довіру користувачів.

Раніше вона працювала регіональним маркетинговим менеджером Intake Education в Африці, керуючи цифровими кампаніями для понад 100 університетів.​​​​​

Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою service@support.mexc.com для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.

Вам також може сподобатися