Щоб зрозуміти майбутнє штучного інтелекту, варто придивитися до недоліків Google Translate
Автор: Адам Лопес, доцент кафедри інформатики Единбурзького університету
Фахівці з комп’ютерних наук Ричард Сатон і Ендрю Барто отримали цьогорічну премію Тюринґа, найпрестижнішу в цій галузі, за багаторічний внесок та впливові ідеї. Наприклад, есей Сатона 2019 року «The Bitter Lesson» («Гіркий урок») розкриває основну причину сьогоднішнього ажіотажу навколо штучного інтелекту (ШІ).
Він стверджує, що методи вдосконалення ШІ, які спираються на потужні обчислення, а не на людські знання, є «зрештою найефективнішими, і з великим відривом». Цю думку неодноразово підтверджувала історія розвитку ШІ. Та водночас із минулого варто винести ще один важливий урок двадцятирічної давнини.
Сучасні чат-боти ШІ побудовані на великих мовних моделях (ВММ), які тренуються на величезних обсягах даних і дозволяють машині «міркувати», прогнозуючи наступне слово в реченні за допомогою ймовірностей.
Корисні ймовірнісні мовні моделі вперше формалізував американский полімат Клод Шенон у 1948 році, спираючись на дослідження 1910–1920-х років. Моделі такого типу набули популярности в 1970–1980-х для застосування в комп’ютерному перекладі та системах розпізнавання мовлення, коли усне мовлення перетворюється на текст.
Перша мовна модель, співставна за масштабом із сучасними ВММ, була представлена у 2007 році й стала складовою Google Translate, запущеного роком раніше. Її навчали на трильйонах слів за допомогою понад тисячі комп’ютерів. Попри технічні відмінності, саме вона є беззаперечним попередником сучасних ВММ.
Тодішня система ґрунтувалася на ймовірностях, отриманих із підрахунку слів, тоді як сучасні ВВМ базуються на так званих трансформерах. Це штучні нейронні мережі, вперше створені у 2017 році — також для перекладу. Вони дали змогу машинам значно краще враховувати контекст кожного слова.
Переваги та недоліки Google Translate
Машинний переклад невпинно розвивається протягом останніх двох десятиліть завдяки не лише технологічним інноваціям, а й розміру та різноманітности навчальних корпусів. Якщо у 2006 році Google Translate пропонував переклад лише між трьома мовами — англійською, китайською та арабською, — то сьогодні він охоплює вже 249. Та попри вражаючу цифру, це менше ніж 4% від приблизно 7 тисяч мов світу.
Між окремими мовними парами, наприклад англійською та іспанською, переклади часто бездоганні. Проте навіть у цих мовах сервіс інколи помиляється в ідіомах, власних назвах, юридичних і технічних термінах та інших нюансах.
У багатьох інших мовних парах сервіс здатен передати лише загальний зміст тексту, але доволі часто допускає серйозні помилки. Найбільша щорічна оцінка систем машинного перекладу, що тепер охоплює і результати роботи ВММ, які конкурують із вузькоспеціялізованими системами перекладу, у 2024 році дійшла однозначного висновку: «машинний переклад залишається невирішеною проблемою».
Попри ці обмеження машинний переклад активно використовують: ще у 2021 році застосунок Google Translate перетнув позначку в 1 мільярд завантажень. Водночас користувачі розуміють, що ставитися до таких сервісів слід обережно. Опитування 2022 року серед 1200 осіб показало, що здебільшого машинний переклад застосовують у ситуаціях із низьким рівнем ризику — наприклад, щоб зрозуміти онлайн-контент поза роботою чи навчанням. Лише близько 2% випадків стосувалися відповідальніших сфер, як-от спілкування з лікарями чи поліцією.
І справді, у таких сферах використання машинного перекладу пов’язане з високими ризиками. Дослідження показали, що помилки перекладу в медицині можуть потенційно завдати серйозної шкоди, і є повідомлення про те, що це зашкодило справам про надання притулку попри наявність переконливих підстав. Не допомагає й те, що користувачі схильні довіряти машинним перекладам, які легко зрозуміти, навіть коли вони вводять в оману.
Усвідомлюючи ризики, галузь перекладу переважно покладається на професійних перекладачів у ситуаціях високої відповідальности, таких як міжнародне право та комерція. Проте конкурентоспроможність цих фахівців знизилась через те, що машини тепер можуть виконувати значну частину їхньої роботи, залишаючи людям переважно контроль якости.
Багато перекладачів працюють фрилансерами на онлайн-платформах, які вже інтегрували машинний переклад. Дратує, коли твоя робота зводиться до виправлення помилок системи, а до цього додаються ще й нестабільність доходу та ізольованість, властиві такому формату роботи. Крім того, перекладачам доводиться жити з реальною або уявною загрозою: що їхні «машинні конкуренти» одного дня повністю витіснять людей. У науковій літературі це явище називають «тривога перед автоматизацією».
Що це означає для ВММ?
Нещодавня поява китайської моделі штучного інтелекту Deepseek, яка майже не поступається провідним GPT-моделям від OpenAI, але коштує значно дешевше, свідчить: потужні мовні моделі швидко перетворюються на масовий товар. Їх використовуватимуть компанії будь-яких масштабів за мінімальні кошти — так само, як сьогодні користуються машинним перекладом.
Втім, сучасні великі мовні моделі здатні на значно більше, ніж переклад: вони виконують широкий спектр завдань. Їхнє головне обмеження — дані, адже вони вже практично вичерпали більшість доступної інформації з інтернету. Попри величезні обсяги, навчальні корпуси не охоплюють усіх можливих завдань, так само як не охоплюють усі мови у сфері машинного перекладу.
Із генеративним ШІ проблема ще гірша: на відміну від мов, неможливо чітко визначити, які саме завдання добре представлені у великій мовній моделі. Звичайно, робитимуться спроби поліпшити дані для навчання, щоб моделі краще справлялися з окремими «слабкими місцями». Але масштаб цього виклику затьмарює проблему машинного перекладу.
Оптимісти покладають надії на те, що машини зможуть збільшувати обсяги навчальних даних, створюючи їхні синтетичні версії, або ж навчатися на основі зворотного зв’язку від людей через взаємодію з чат-ботами. Але цей підхід уже перевіряли на перекладацьких системах — і прориву він не дав.
Тож найближче майбутнє виглядає так: ВММ — чудовий інструмент для окремих завдань, посередній — для більшости, і небезпечний — там, де ставки високі. Ми користуватимемось ними там, де можна ризикувати, але в критичних ситуаціях вони здатні завдати шкоди. За приклад править ситуація, коли правники довірилися вигаданим покликанням на «судові справи», які навів ChatGPT.
Такі системи точно стануть помічниками у сферах, де є культура контролю якости — наприклад, у програмуванні. Але водночас вони можуть погіршити сам досвід роботи для людей. Ба більше, ми лише починаємо усвідомлювати інші проблеми — загрозу для людської творчости й шкоду довкіллю. І головне питання, на яке доведеться відповісти вже зараз: чи справді це те майбутнє, яке ми хочемо побудувати?
Стаття вперше була опублікована англійською мовою під назвою «To understand the future of AI, take a look at the failings of Google Translate» в журналі The Conversation 10 березня 2025 року.
Переклали Анна Михальченко і Ангеліна Самойлюк