» » OpenAI: New York Times взломали ChatGPT и сгенерировали фейковые доказательства

OpenAI: New York Times взломали ChatGPT и сгенерировали фейковые доказательства

Новости
19:50, 28 февраль 2024
77
0

Компания OpenAI обвинила издание The New York Times (NYT) во взломе чат-бота ChatGPT. По мнению разработчиков, это сделали ради генерации фейковых доказательств по делу о нарушении авторских прав. 

В компании уверяют, что издание заплатило третьей стороне за взлом языковой модели. После этого журналисты вместе с неназванными специалистами использовали «обманчивые подсказки», нарушающие условия использования ChatGPT. С их помощью они заставили чат-бот воспроизвести материалы издания, нарушающие авторские права.

«Утверждения, содержащиеся в жалобе NYT, не соответствуют ее знаменитым строгим журналистским стандартам. Правда, которая откроется в этом деле, заключается в том, что Times заплатила кому-то за взлом продуктов OpenAI», — говорится в заявлении компании.

Юристы издания не отрицают привлечения специалистов для работы с ChatGPT. По их словам, речь идет о промт-инжиниринге (prompt engineering). Это процесс создания и оптимизации текстовых запросов (промптов) для генеративных моделей с целью получения желаемых ответов.

Команда экспертов якобы изучила чат-бот на наличие доказательств о предполагаемом изданием незаконном использовании материалов NYT. Адвокаты не видят проблемы в таком подходе и сравнивают его с так называемой «красной атакой» — имитацией с целью оценки безопасности систем.

В ноябре 2023 года против OpenAI и Microsoft подали иск о нарушении авторских прав. В документах утверждается, что разработчики чат-бота незаконно использовали десятки тысяч статей и научных материалов для обучения языковой модели.

Тем времени OpenAI представила новый сервис для преобразования текста в видео. Продукт под названием Sora пока доступен для художников, дизайнеров и режиссеров. Они должны дать отзывы о том, как усовершенствовать модель, чтобы она была максимально полезной, заявили в компании.

Источник: cryptocurrency.tech

Комментарии (0)
Кликните на изображение чтобы обновить код, если он неразборчив