Чат-боти на базі штучного інтелекту можуть бети небезпечні в роботі
Сучасні чат-боти, такі як ChatGPT, створені на базі великих мовних моделей (LLM) — це не лише нова розвага сьогодні. Ця технологія все частіше використовується для підвищення продуктивності та ефективності роботи працівників. Враховуючи свої можливості, такі інструменти можуть повністю замінити деякі посади, зокрема в таких сферах, як кодування, створення контенту та обслуговування клієнтів.
Багато компаній уже використовують алгоритми LLM, тому велика ймовірність, що у майбутньому таких організацій стане ще більше. Але перш ніж поспішати вітати нового «найманого працівника» та використовувати його для оптимізації деяких робочих процесів у бізнесі, спеціалісти ESET рекомендують відповісти на декілька запитань.
Чи безпечно ділитися даними з чат-ботом?
Чат-боти навчаються на великій кількості даних, доступних в інтернеті, які потім допомагають розуміти запити користувачів. Однак кожного разу, коли ви просите чат-бота надати фрагмент коду або написати простий електронний лист для свого клієнта, ви також можете ділитися важливими даними компанії.
За даними Національного центру кібербезпеки Сполученого Королівства (NCSC), чат-боти автоматично не додають інформацію із запитів до своєї моделі, щоб інші могли її запитувати. Однак запит буде видимий для постачальника чат-ботів. Ці запити зберігаються та можуть використовуватись для розробки та удосконалення чат-ботів у наступних версіях. Оскільки чим більше вхідних даних вони отримують, тим кращими стають їх результати роботи.
Можливо, щоб допомогти розвіяти занепокоєння щодо конфіденційності даних, наприкінці квітня Open AI представив можливість вимкнути історію чату в ChatGPT. Хоча існує й інший ризик ― злам, витік даних або випадкова публікація запитів, які зберігаються в Інтернеті.
Що відомо про ризики використання чат-ботів?
Кожного разу популярність нової технології чи програми стає привабливою ціллю для хакерів, і чат-боти ― не виключення. Зокрема вже було кілька випадків виявлення певних недоліків в цих системах.
Наприклад, у березні стався витік історії чатів та платіжних даних деяких користувачів у ChatGPT від OpenAI, що змусило компанію 20 березня 2023 року тимчасово вимкнути ChatGPT. 24 березня компанія виявила, що помилка в бібліотеці з відкритим кодом дозволила деяким користувачам бачити заголовки з історії чату іншого активного користувача. Після детальнішого дослідження було виявлено, що та сама помилка могла стати причиною ненавмисної видимості інформації про оплату користувачів ChatGPT Plus, які були активними протягом певного часу.
Крім того, дослідники з безпеки продемонстрували, як Microsoft LLM Bing Chat можна перетворити на інструмент, який обманом змусить користувачів надати особисті дані або натиснути на фішингове посилання. Для цього вони розмістили підказку на сторінці у Вікіпедії про Альберта Ейнштейна. Підказка була частиною звичайного тексту в коментарі з розміром шрифту 0 і тому була невидимою для відвідувачів сайту.
Потім вони поставили чат-боту запитання про Ейнштейна. Це спрацювало, і коли чат-бот опрацював цю сторінку Вікіпедії, він неусвідомлено активував підказку, через що чат-бот спілкувався з піратським акцентом. Коли його запитали, чому він говорить як пірат, чат-бот відповів: «Ей, друже, я дотримуюся інструкцій». Під час цієї атаки чат-бот також надіслав користувачу небезпечне посилання зі словами: «Не хвилюйся. Це безпечно і нешкідливо».
Також варто пам’ятати, що чат-боти можуть помилятися, тобто видавати відповіді чіткою та зрозумілою мовою, які при цьому є зовсім неправильними. Тому завжди перевіряйте результати, щоб переконатися у їх правдивості та точності, та уникнути, наприклад, юридичних проблем.
Чи компанії стикалися з інцидентами безпеки, пов’язаними з чат-ботами?
Наприкінці березня південнокорейське видання The Economist Korea повідомило про три інциденти в Samsung Electronics. Хоча компанія попросила своїх співробітників бути обережними щодо введення інформації у свої запити, деякі з них випадково поділилися внутрішніми даними з ChatGPT.
Один із співробітників Samsung ввів несправний вихідний код, пов’язаний із базою даних вимірювань напівпровідникового обладнання, шукаючи рішення. Інший співробітник зробив те саме з програмним кодом для виявлення несправного обладнання, оскільки хотів оптимізувати код. Третій співробітник завантажив записи наради для створення протоколу.
Щоб не відставати від прогресу, пов’язаного зі штучним інтелектом, і водночас захистити свої дані, Samsung оголосила про розробку власного внутрішнього сервісу, який допоможе співробітникам виконувати їхні обов’язки.
Що варто зробити перед наданням даних чат-боту?
Завантаження даних компанії в чат-бот означає, що ви надсилаєте їх третій стороні, наприклад OpenAI, і втрачаєте контроль над ними. Зокрема компанії-розробники використовують дані для навчання та вдосконалення своєї моделі штучного інтелекту.
Якщо ви все ж таки вирішили використовувати ChapGPT або подібні інструменти у бізнесі, слід дотримуватися кількох простих правил:
- дізнайтеся, як ці інструменти та їхні оператори отримують доступ, зберігають та передають дані компанії;
- розробіть офіційну політику про використання компанією інструментів штучного інтелекту, а також обміркуйте, як їх впровадження працюватиме з поточною політикою конфіденційності даних клієнтів;
- подбайте про визначення обставин, за яких співробітники можуть використовувати інструменти, та проінформуйте їх про обмеження, зокрема про уникнення введення конфіденційної інформації про компанію чи клієнтів у чат-бот.
Які заходи для безпеки даних можуть вжити компанії?
Багато хто думає, що цього разу все інакше, оскільки ці чат-боти більш розумні, але насправді це ще одне програмне забезпечення з усіма його можливими недоліками. Саме тому компаніям варто подбати про забезпечення захисту усіх можливих систем корпоративної мережі, в першу чергу найбільш уразливих користувачів.
Зокрема компаніям варто використовувати DLP-рішення для запобігання витокам даних, яке допоможе контролювати робочий процес, а також захистить цінні дані від людських помилок та шкідливих дій. Крім того, важливо використовувати багаторівневе рішення з безпеки, інструменти для захисту віддаленого доступу, а також подбати про захист конфіденційних даних.