ChatGPT me acusó falsamente de acosar sexualmente a un estudiante’: profesor de derecho dice que las acusaciones fueron ‘escalofriantes’

ChatGPT me acusó falsamente de acosar sexualmente a un estudiante’: profesor de derecho dice que las acusaciones fueron ‘escalofriantes’

Jonathan Turley, profesor de derecho en la Universidad George Washington, advirtió sobre los peligros de la IA después de que ChatGPT lo acusara falsamente de acoso sexual, que citó un artículo inventado sobre un supuesto caso de 2018.

Turley, colaborador de Fox News, no ha evitado resaltar los peligros de la inteligencia artificial (IA). Durante mucho tiempo ha expresado su preocupación por los peligros de la desinformación, particularmente con el popular chatbot OpenAI ChatGPT.

El año pasado, un profesor de UCLA y amigo de Turley, que estaba investigando ChatGPT, le informó que su nombre apareció en una búsqueda. El mensaje de ChatGPT solicitaba cinco ejemplos de acoso sexual por parte de profesores de derecho estadounidenses, junto con citas de artículos periodísticos relevantes, para respaldar las afirmaciones.

Profesor de Derecho acusado falsamente por Chatbot

“Cinco profesores surgieron, tres de esas historias eran claramente falsas, incluida la mía”, dijo Turley a “The Story” en Fox News lunes. La invención de la IA fue el aspecto más inquietante de este incidente. ChatGPT inventó una historia del Washington Post, completa con una cita inventada, alegando acoso en un viaje de estudiantes a Alaska.

“Ese viaje nunca ocurrió. Nunca hice ningún viaje con estudiantes de derecho de ningún tipo. Me hizo enseñar en la escuela equivocada y nunca me acusaron de acoso sexual”, aclaró Turley.

El 6 de abril de 2023, el jurista de 61 años recurrió a X (anteriormente Twitter) para exponer La difamación de ChatGPT. La AI inventó una acusación de acoso sexual de 2018, alegando que una estudiante lo acusó en un viaje a Alaska, un viaje que nunca ocurrió.

<iframe srcdoc="html,cuerpo{desbordamiento:oculto;altura:100%;fondo:#000;}” carga=”lazy” width=”200″ height=”113″ src=”https://www.youtube.com/embed/A9K3yU9w8t8?feature=oembed” frameborder=”0″ enable=”accelerometer; auto-reproducción; escritura en portapapeles; medios cifrados; giroscopio; imagen en imagen; web-share” referrerpolicy=”strict-origin-when-cross-origin” enablefullscreen=”” title=”ChatGPT atribuye erróneamente acusaciones de conducta sexual inapropiada al profesor de derecho #shorts”>

El robot impulsado por inteligencia artificial incluso inventó citas de un supuesto artículo del Washington Post, alegando que hizo “comentarios sexualmente sugerentes” e “intentó tocarla de manera sexual”, dijo Turley. En “America Reports”, Turley enfatizó la gravedad de la situación.

“Tenías un sistema de inteligencia artificial que inventó toda la historia pero que en realidad creó el artículo citado y la cita”, dijo. Tras la investigación, el propio Washington Post no pudo encontrar ningún rastro de la historia. Esta es una señal importante de que el robot de IA puede fabricar narrativas por completo.

ChatGPT, un chatbot de IA conocido por sus habilidades de conversación similares a las humanas, es utilizado por una audiencia global para tareas como redacción de correos electrónicos, depuración de códigos, investigación, escritura creativa y más. Citando su experiencia con ChatGPT, Turley pidió un desarrollo responsable de la IA e instó a los medios de comunicación a implementar procesos de verificación más estrictos antes de utilizar dicho software.

Cuando los algoritmos heredan el sesgo

Haciendo eco de las advertencias de Turley, un estudio reciente descubrió que los modelos de lenguaje grandes (LLM) como ChatGPT pueden ser sorprendentemente fáciles de manipular para generar comportamientos maliciosos. Los investigadores se alarmaron aún más al descubrir que la aplicación de técnicas de entrenamiento en seguridad no lograba rectificar las tendencias engañosas de la IA.

“Tuve la suerte de saber desde el principio que, en la mayoría de los casos, esto se replicará un millón de veces en Internet y el rastro se perderá. No podrás darte cuenta de que esto se originó con un sistema de inteligencia artificial”, dijo Turley. .

“Y para un académico, no podría haber nada tan dañino para su carrera como que la gente asocie este tipo de acusaciones con usted y su posición. Así que creo que esto es una advertencia de que la IA a menudo trae esta pátina de precisión y neutralidad”.

Turley argumentó que la IA, al igual que los humanos, puede heredar sesgos e inclinaciones ideológicas de los datos con los que se entrena. Esta vulnerabilidad se destacó el año pasado cuando un informe reveló que el asistente de inteligencia artificial de Microsoft, Copilot, ofrecía información inexacta sobre consultas relacionadas con las elecciones estadounidenses.

Turley señaló que una IA es tan buena como sus programadores. También señaló que ChatGPT no se disculpó ni abordó la historia inventada que empañó su reputación.

“Ni siquiera he tenido noticias de esa empresa”, continuó Turley. “Esa historia, varias organizaciones de noticias se acercaron a ellos. No dijeron nada. Y eso también es peligroso. Porque cuando un periodista te difama así en un artículo, sabes cómo comunicarse. Ya sabes quién para contactar. Con AI, no hay nadie allí y parece que ChatGPT simplemente se encogió de hombros y lo dejó así”.

2024-06-07 11:35:25
#ChatGPT #acusó #falsamente #acosar #sexualmente #estudiante #profesor #derecho #dice #las #acusaciones #fueron #escalofriantes,


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.