Є що приховувати? В OpenAI небагатослівно відреагували на обурливу помилку ChatGPT
Після публікацій про це OpenAI не випустила жодних офіційних коментарів, але все ж відреагувала, додавши попередження до свого чат-бота. Як пише Engadget, тепер під час спроби відтворити помилку, попросивши чат безкінечно повторювати слово, користувачам демонструють оголошення про те, що такі запити можуть бути порушеннями політики.
«Цей вміст може порушувати нашу політику щодо вмісту та умови використання. Якщо ви вважаєте, що це помилка, будь ласка, надішліть свій відгук — ваш внесок допоможе нашим дослідженням у цій галузі», — йдеться в попередженні.
Видання зазначає, що у OpenAI немає правил, які б забороняли користувачам просити чат-бот вічно повторювати слова. В умовах використання зазначено лише, що користувачі не можуть «використовувати будь-який автоматизований або програмний метод для вилучення даних». Однак прохання повторювати слово не є автоматизацією чи програмуванням.
Як писав NV Техно, чат-боти, такі як ChatGPT, працюють на основі великих мовних моделей, що навчалися на масивних обсягах даних. На яких даних навчався чат-бот OpenAI, досі було незрозуміло, але викрита проблема ChatGPT пролила світло на це.