Великі мовні моделі: пастки, яких слід уникати

Розділ: Інформаційні технології
Автор(и): Еоін Вікенс (Eoin Wickens), Марта Янус (Marta Janus)
розміщено: 13.05.2023
звернень: 5000

Від проблем безпеки та конфіденційності до дезінформації та упередженості — великі мовні моделі несуть у собі як ризики, так і переваги. Про це пишуть у своїй статті на Enterprisers Project дослідники компанії HiddenLayer Еоін Вікенс (Eoin Wickens) і Марта Янус (Marta Janus).
Великі мовні моделі: пастки, яких слід уникати Останнім часом спостерігається неймовірний прогрес у галузі штучного інтелекту (ШІ), головним чином завдяки успіхам у розробці великих мовних моделей (Large Language Models, LLM). Саме вони є серцем інструментів генерації тексту та коду, таких як ChatGPT, Bard та Copilot від GitHub.

Ці моделі вже на шляху до впровадження в усіх секторах. Але залишається серйозне занепокоєння щодо того, як вони створюються і використовуються, і як ними можна зловживати. Деякі країни вирішили застосувати радикальний підхід і тимчасово заборонити певні LLM, доки не буде створено належного регулювання.

Давайте розглянемо деякі реальні негативні наслідки використання інструментів, заснованих на LLM, та деякі стратегії для їх пом’якшення.

1. Шкідливий вміст

LLM можуть підвищити продуктивність у багатьох аспектах. Їх здатність інтерпретувати наші запити і вирішувати досить складні проблеми означає, що ми можемо перекласти рутинні, трудомісткі завдання на улюбленого чат-бота і просто перевірити результати на здоровий глузд.

Але, звичайно, з великою силою приходить і велика відповідальність. Хоча LLM можуть створювати корисні матеріали і прискорювати розробку програмного забезпечення, вони також можуть забезпечити швидкий доступ до шкідливої інформації, прискорити робочий процес зловмисників і навіть генерувати шкідливий контент, такий як фішингові електронні листи і шкідливе ПЗ. Термін «cкрипт-кіді» (Script kiddie)* набуває абсолютно нового значення, коли бар’єр для входу є настільки низьким, як написання добре складеної підказки для чат-бота.

Хоча існують способи обмежити доступ до об’єктивно небезпечного контенту, вони не завжди здійсненні або ефективні. Що стосується хостингових сервісів, таких як чат-боти, фільтрація контенту може допомогти принаймні сповільнити дії недосвідченого користувача. Впровадження надійних фільтрів контенту має бути обов’язковим, але вони не є куленепробивними.

2. Введення підказок

Спеціально створені підказки можуть змусити LLM ігнорувати контент-фільтри та створювати протизаконні результати. Ця проблема пронизує всі LLM, але вона буде посилюватися, оскільки ці моделі зв’язуються із зовнішнім світом; наприклад, у вигляді плагінів для ChatGPT. Це може дозволити чат-ботам «оцінювати» створений користувачем код, що може призвести до довільного його виконання. Із точки зору безпеки, оснащення чат-бота такою функціональністю є дуже проблематичним.

Аби пом’якшити цю проблему, важливо розуміти можливості вашого рішення на базі LLM і те, як воно взаємодіє із зовнішніми кінцевими точками. Визначте, чи підключено його до API, чи веде він акаунт у соцмережах, чи взаємодіє безконтрольно з вашими клієнтами, і оцініть свою модель потоків відповідно до цього.

Хоча в минулому оперативне впровадження могло здаватися несуттєвим, зараз ці атаки можуть мати цілком реальні наслідки, оскільки вони починають виконувати згенерований код, інтегруватися в зовнішні API і навіть зчитувати дані з вкладок вашого браузера.

3. Конфіденційність даних / порушення авторських прав

Навчання великих мовних моделей вимагає величезних обсягів даних, деякі моделі налічують понад півтрильйона параметрів. При такому масштабі розуміння походження, авторства та статусу авторських прав є гігантською — якщо не нездійсненною — задачею. Неперевірена навчальна вибірка може призвести до того, що модель може стати джерелом витоку приватних даних, неправильного приписування цитат або плагіату контенту, захищеного авторським правом.

Закони про конфіденційність даних, що стосуються використання LLM, також дуже туманні. Як ми вже дізналися з практики використання соцмереж, якщо щось є безкоштовним, то, швидше за все, користувачі і є цим продуктом. Варто пам’ятати, що якщо ми просимо чат-бота знайти помилку в нашому коді або написати конфіденційний документ — ми надсилаємо ці дані третій стороні, яка в кінцевому підсумку може використовувати їх для навчання моделей, реклами або отримання конкурентної переваги. Витік даних через підказки штучного інтелекту може бути особливо шкідливим у бізнес-середовищі.

Оскільки послуги на основі LLM інтегруються з такими інструментами підвищення продуктивності на робочому місці, як Slack і Teams, дуже важливо уважно читати політику конфіденційності провайдерів, розуміти, як можна використовувати підказки штучного інтелекту, і регулювати використання LLM на робочому місці відповідним чином. Що стосується захисту авторських прав, нам потрібно регулювати збір і використання даних за допомогою згоди або спеціального ліцензування, не перешкоджаючи відкритому і в значній мірі свободному інтернету, яким він є сьогодні.

4. Дезінформація

Хоча LLM можуть переконливо імітувати інтелект, вони насправді не «розуміють» того, що продукують. Замість цього, їхньою валютою є ймовірнісні зв’язки між словами. Вони не можуть відрізнити факт від вигадки — деякі результати можуть виглядати дуже правдоподібно, але виявитися впевнено сформульованою неправдою. Прикладом цього є ChatGPT, який фальсифікує цитати і навіть цілі статті, у чому один користувач Twitter нещодавно переконався на власному досвіді.

До результатів роботи інструментів LLM завжди слід ставитися з певною часткою скепсису. Ці інструменти можуть виявитися неймовірно корисними в широкому спектрі завдань, але люди повинні брати участь у перевірці точності, користі та загальної адекватності їхніх відповідей. В іншому випадку на нас чекає розчарування.

5. Шкідливі поради

Під час онлайн-спілкування стає дедалі складніше визначити, з ким ви розмовляєте — з людиною чи з машиною, і у деяких суб’єктів може виникнути спокуса цим скористатися. Наприклад, на початку цього року одна технологічна компанія, що займається психічним здоров’ям, визнала, що деякі з її користувачів, які шукали онлайн-консультації, несвідомо взаємодіяли з ботом на основі GPT-3, а не з людиною-волонтером. Це викликало етичні занепокоєння щодо використання LLM у сфері психічного здоров’я та інших сферах, які покладаються на інтерпретацію людських емоцій.

На сьогодні практично відсутній регуляторний нагляд, який би гарантував, що компанії не можуть використовувати ШІ в такий спосіб за наявності або відсутності прямої згоди кінцевого користувача. Більше того, зловмисники можуть використовувати переконливих ШІ-ботів у шпигунстві, шахрайстві та інших незаконних діях.

Штучний інтелект не має емоцій, але його реакції можуть зачепити почуття людей або навіть призвести до більш трагічних наслідків. Безвідповідально припускати, що рішення зі штучним інтелектом може адекватно інтерпретувати емоційні потреби людини, відповідально і безпечно реагувати на них.

Використання LLM у сфері охорони здоров’я та інших чутливих сферах має бути ретельно регламентованим, щоб запобігти будь-якому ризику заподіяння шкоди користувачам. Постачальники послуг на основі LLM повинні завжди інформувати користувачів про обсяг внеску ШІ в надання послуги, а взаємодія з ботом завжди має бути можливістю вибору, а не діяти за замовчуванням.

6. Упередженість

Рішення зі штучним інтелектом є настільки хорошими, наскільки хороші дані, на яких вони навчаються. Ці дані часто відображають наші людські упередження щодо політичних партій, етнічних груп, статі чи інших демографічних характеристик. Упередженість призводить до негативних наслідків для зачеплених груп, коли модель приймає несправедливе рішення, і може бути як малопомітною, так і такою, яку потенційно важко виправити. Моделі, навчені на неперевірених даних з інтернету, завжди відображатимуть людські упередження; моделі, які постійно навчаються на взаємодії з користувачами, також схильні до навмисних маніпуляцій.

Для зменшення ризику дискримінації постачальникам послуг LLM необхідно ретельно оцінювати свої навчальні набори даних на предмет дисбалансу, який може призвести до негативних наслідків. Моделі машинного навчання також слід періодично перевіряти, щоб переконатися, що прогнози залишаються справедливими і точними.

Великі мовні моделі повністю переосмислюють те, як ми взаємодіємо з програмним забезпеченням, привносячи незліченні покращення в наші робочі процеси. Однак, зважаючи на нинішню відсутність значущих правил щодо ШІ та недостатню захищеність моделей машинного навчання, широке та поспішне впровадження LLM, швидше за все, матиме значні негативні наслідки. Тому вкрай важливо якнайшвидше врегулювати та обезопасити цю цінну технологію.

Ілюстрація: valtech.com


    * У хакерській культурі принизливий термін, який використовується для опису аматорів, хто користується скриптами або програмами, розробленими іншими, для атаки комп’ютерних систем і мереж або дефейсу сайтів, не розуміючи механізму їхньої дії. — Вікіпедія


ЧИТАЙТЕ ТАКОЖ:
КНИГИ НА ТЕМУ:
Штучний інтелект 2041: десять передбачень майбутньогоШтучний інтелект 2041: десять передбачень майбутнього
Велика дев’ятка. Як ІТ-гіганти та їхні розумні машини можуть змінити людствоВелика дев’ятка. Як ІТ-гіганти та їхні розумні машини можуть змінити людство
Технології блокчейн та криптовалюта: ризики та кібербезпекаТехнології блокчейн та криптовалюта: ризики та кібербезпека

МЕТОДОЛОГІЯ: Стратегія, Маркетинг, Зміни, Фінанси, Персонал, Якість, IT
АКТУАЛЬНО: Новини, Події, Тренди, Інсайти, Інтерв'ю, Рецензії, Бізнес-навчання, Консалтинг
СЕРВІСИ: Бізнес-книги, Робота, Форуми, Глосарій, Цитати, Рейтинги, Статті партнерів
ПРОЄКТИ: Блог, Відео, Візія, Візіонери, Бізнес-проза, Бізнес-гумор

Сторінка Management.com.ua у Facebook    Менеджмент.Книги: телеграм-канал для управлінців    Management Digest у LinkedIn    Відслідковувати нас у Twitter    Підписатися на RSS    Поштова розсилка


Copyright © 2001-2024, Management.com.ua

Менеджмент.Книги

телеграм-канал Менеджмент.Книги Менеджмент.Книги — новинки, книжкові огляди, авторські тези і цінні думки з бізнес-книг. Підписуйтесь на телеграм-канал @books_management



➥ Дякую, я вже підписана(-ий)