- 20.08.2023
- Опубликовано: Risalya Postovna
- Категории: High-Tech, Новости
OpenAI заявляет, что ChatGPT-4 сокращает время модерации контента с месяцев до часов Прогнозы ChatGPT-4 могут совершенствовать более мелкие модели для обработки обширных данных, улучшая модерацию контента несколькими способами.
OpenAI, разработчик ChatGPT, выступает за использование искусственного интеллекта (ИИ) для модерации контента, рекламируя его потенциал для повышения операционной эффективности платформ социальных сетей за счет ускорения обработки сложных задач. Компания заявила, что ее последняя модель искусственного интеллекта GPT-4 может значительно сократить сроки модерации контента с месяцев до часов, обеспечив улучшенную согласованность в разметке.
Координация многочисленных модераторов по всему миру для предотвращения доступа пользователей к опасным материалам, таким как детская порнография и изображения с высоким содержанием насилия. «Процесс (модерации контента) по своей природе медленный и может привести к психологическому стрессу у модераторов. С помощью этой системы процесс разработки и настройки политик контента сокращается с месяцев до часов. «Согласно заявлению, OpenAI активно исследует использование больших языковых моделей (LLM) для решения этих проблем. Его языковые модели, такие как GPT-4, делают их подходящими для модерации контента, поскольку они могут принимать решения по модерации в соответствии с руководящими принципами политики.
Прогнозы OpenAIChatGPT-4 могут улучшить более мелкие модели для обработки обширных данных. Эта концепция улучшает модерацию контента несколькими способами, включая согласованность тэгов, быструю петлю обратной связи и снижение умственной нагрузки. В заявлении подчеркивается, что OpenAI в настоящее время работает над повышением точности прогнозов GPT-4. Одно из направлений, которое изучается, – это интеграция рассуждений по цепочке мыслей или самокритики.
Кроме того, ведутся эксперименты с методами выявления незнакомых рисков, черпая вдохновение в конституционном ИИ. Цель OpenAI — использовать модели для обнаружения потенциально опасного контента на основе широких описаний вреда. Информация, полученная в результате этих усилий, будет способствовать совершенствованию текущей политики в отношении контента или разработке новых в неизведанных областях риска. 15 августа генеральный директор OpenAI Сэм Альтман пояснил, что компания воздерживается от обучения своих моделей ИИ с использованием данных, созданных пользователями.
Источник: Cointelegraph