Компания OpenAI отложила на неопределенный срок выпуск функции, позволяющей создавать эротический контент в чат-боте.
Решение связано с переориентацией на основные продукты и приоритетные направления бизнеса.
Об этом сообщает Financial Times со ссылкой на осведомленные источники.

Сотрудники и инвесторы выразили обеспокоенность по поводу внедрения такой опции.
Кроме того, технологические компании по всему миру столкнулись с ужесточением контроля в вопросах безопасности детей.
В OpenAI переключились с того, что руководство называет побочными проектами, на разработку функций, повышающих эффективность бизнеса.
Ранее на этой неделе компания объявила о закрытии приложения для генерации видео Sora.
Теперь усилия направлены на запуск так называемого улучшенного ChatGPT, который объединит инструмент для кодирования Codex, сам чат-бот и браузер Atlas.
Такая стратегия призвана усилить конкуренцию с аналогичными продуктами Anthropic и Google.
Планы ослабить ограничения на создание эротического контента в ChatGPT были анонсированы еще в конце прошлого года.
Изначально запуск функции ожидался в декабре, но этого не произошло.
Опасения по поводу выхода продукта привели к уходу из компании как минимум одного высокопоставленного сотрудника.
Один из бывших работников заявил изданию, что искусственный интеллект не должен заменять друзей или семью, а человеческие связи остаются незаменимыми.
Техническая сторона вопроса также создавала сложности.
Наборы данных, содержащие материалы сексуального характера, требовали тщательной очистки от противоправного контента, включая сцены с животными или инцестом.
Выпуск подобной системы несет для OpenAI значительные репутационные и юридические риски.
Ряд стран приняли законы о проверке возраста для доступа к контенту для взрослых.
В Конгрессе США обсуждается аналогичное законодательство о безопасности детей в интернете.
Сама OpenAI запустила систему прогнозирования возраста, однако уровень ошибок в ней превышает 10 процентов.
В такой ситуации компания рискует оказаться в центре судебных разбирательств.










