“Desde nuestro lanzamiento de ChatGPT, los usuarios han compartido resultados que consideran políticamente sesgados, ofensivos u objetables. En muchos casos, creemos que las preocupaciones planteadas han sido válidas y han descubierto limitaciones reales de nuestros sistemas que queremos abordar. “, dijo la compañía en una publicación de blog.
OpenAI también dijo que también ha visto “algunos conceptos erróneos sobre cómo nuestros sistemas y políticas funcionan juntos para dar forma a los resultados que obtiene de ChatGPT”.
“Los sesgos son errores”
En el blog, OpenAI reconoció que muchos están preocupados con razón por los sesgos en el diseño y el impacto de los sistemas de IA. Agregó que el modelo de IA está entrenado por los datos disponibles y las entradas del público que usa o se ve afectado por sistemas como ChatGPT.
“Nuestras pautas son explícitas en cuanto a que los revisores no deben favorecer a ningún grupo político. Los sesgos que, sin embargo, pueden surgir del proceso descrito anteriormente son errores, no características”, dijo la startup. Dijo además que la compañía cree que las empresas de tecnología deben ser responsables de producir políticas que resistan el escrutinio.
“Estamos comprometidos a abordar este problema con firmeza y ser transparentes sobre nuestras intenciones y nuestro progreso”, señaló.
OpenAI dijo que está trabajando para mejorar la claridad de estas pautas y, en función de los aprendizajes del lanzamiento de ChatGPT, proporcionará instrucciones más claras a los revisores sobre posibles dificultades y desafíos relacionados con el sesgo, así como sobre figuras y temas controvertidos.
Como parte de sus iniciativas de transparencia, OpenAI también está trabajando para compartir información demográfica agregada sobre los revisores “de una manera que no viole las reglas y normas de privacidad”, porque esta es una fuente adicional de posible sesgo en los resultados del sistema.
La empresa también está investigando cómo hacer que el proceso de ajuste sea más comprensible y controlable.