Є що приховувати? В OpenAI небагатослівно відреагували на обурливу помилку ChatGPT

Є що приховувати? В OpenAI небагатослівно відреагували на обурливу помилку ChatGPT

OpenAI відреагувала на помилку в ChatGPT (Фото:The Japan Times)

Минулого тижня команда дослідників розповіла, що змогла отримати фрагменти даних, на яких навчали ChatGPT, за допомогою нехитрої схеми. OpenAI вперше відреагувала на це відкриття.

Дослідники з’ясували, що якщо попросити ChatGPT безкінечно повторювати якесь слово, він це робитиме, але потім почне видавати найрізноманітніші дані — від особистої інформації реальних людей до сторінок з Вікіпедії.

Після публікацій про це OpenAI не випустила жодних офіційних коментарів, але все ж відреагувала, додавши попередження до свого чат-бота. Як пише Engadget, тепер під час спроби відтворити помилку, попросивши чат безкінечно повторювати слово, користувачам демонструють оголошення про те, що такі запити можуть бути порушеннями політики.

«Цей вміст може порушувати нашу політику щодо вмісту та умови використання. Якщо ви вважаєте, що це помилка, будь ласка, надішліть свій відгук — ваш внесок допоможе нашим дослідженням у цій галузі», — йдеться в попередженні.

Видання зазначає, що у OpenAI немає правил, які б забороняли користувачам просити чат-бот вічно повторювати слова. В умовах використання зазначено лише, що користувачі не можуть «використовувати будь-який автоматизований або програмний метод для вилучення даних». Однак прохання повторювати слово не є автоматизацією чи програмуванням.

Як писав NV Техно, чат-боти, такі як ChatGPT, працюють на основі великих мовних моделей, що навчалися на масивних обсягах даних. На яких даних навчався чат-бот OpenAI, досі було незрозуміло, але викрита проблема ChatGPT пролила світло на це.