OpenAI busca moderar contenido con tecnología de Chat GPT-4
OpenAI, la empresa detrás de la tecnología del ChatGPT, ha dado a conocer un nuevo sistema de moderación de contenido basado en su tecnología GPT-4. El objetivo de este sistema es ayudar a moderar el tráfico en línea y filtrar el material “tóxico y dañino” en Internet, con el propósito de “aliviar la carga mental” de los moderadores humanos que realizan esta labor.
En un comunicado oficial, la empresa liderada por Sam Altman ha destacado la importancia de la moderación del contenido en las plataformas digitales, señalando que es un aspecto “crucial en el mantenimiento de la salud” de dichos medios. OpenAI reconoce la complejidad y el desafío del proceso de moderación de contenido en línea, que requiere un “esfuerzo meticuloso, sensibilidad y comprensión profunda del contexto”.
El sistema de moderación de contenido basado en GPT-4 busca abordar esta problemática. Utilizando su avanzada tecnología de inteligencia artificial, OpenAI ha desarrollado un sistema que puede filtrar el contenido en línea y detectar material “tóxico y dañino” en las plataformas digitales. Este sistema, según lo explicado por OpenAI, permitirá a los moderadores humanos aliviar su carga y mejorar la consistencia en el etiquetado de contenidos en línea.
El sistema funciona de la siguiente manera: los usuarios introducen reglas de moderación en GPT-4. Luego, el sistema es probado con una muestra de contenido problemático basado en estas reglas predefinidas. Las decisiones tomadas por la inteligencia artificial son revisadas por los moderadores humanos, y en caso de errores, se corrigen y ajustan para mejorar la precisión de la moderación.
A pesar de sus beneficios, OpenAI ha reconocido que el sistema tiene algunas limitaciones, como posibles “juicios sesgados no deseados” durante el entrenamiento del modelo. Sin embargo, la empresa se ha comprometido a seguir refinanciando y desarrollando este enfoque, manteniendo la transparencia y compartiendo su progreso con la comunidad.