Home » La IA generativa probará qué es peor: datos sesgados o mala fe del usuario

La IA generativa probará qué es peor: datos sesgados o mala fe del usuario

by admin
La IA generativa probará qué es peor: datos sesgados o mala fe del usuario

Durante todo el año, en este podcast, hemos estado hablando sobre el potencial de la IA generativa.

Cómo cambiará la academia, nuestra economía, nuestras leyes. Cómo no estamos preparados para el futuro en nuestra puerta.

“Todo esto con ChatGPT es solo la historia que se repite. Necesitamos dejar de ver la tecnología y la innovación como una verdadera bala de plata para todos los problemas del mundo y, en cambio, comprender que en realidad puede escalar las desigualdades a una velocidad vertiginosa”.

De lo que no hemos hablado mucho es de que la IA generativa sigue siendo bastante tonta. Como artículos recientes en el New York Times y The Verge, junto con innumerables publicación en TwitterComo he notado, a veces las herramientas generativas como ChatGPT no son más que texto predictivo. Y el texto predictivo puede ser muy, muy tonto. Y un poco loco.

Pero esas predicciones tienen que ser extraídas de algo, y ahí es donde radica el enfoque del podcast de esta semana. Porque ChatGPT y Bing también pueden ser más que un poco racistas o exhibir otras formas de sesgo. Así que se une a nosotros la Dra. Sarah Saska, cofundadora y directora ejecutiva de la consultora DEI Feminuity.

El Dr. Saska nos guía a través del estado actual de las consideraciones de diversidad, equidad e inclusión en lo que respecta a la IA generativa y el riesgo de sesgo en la máquina, todo lo cual debería sonar frustrantemente familiar, excepto Algorithmic Justice League, que es increíble. y, lo juro por Dios, real.

Sin embargo, cuando hablé con el Dr. Saska, quedó claro que las complejidades de estos sistemas apuntan a problemas no solo en la forma en que se obtienen y entrenan los datos, sino también en lo que sucede cuando se relaciona con el enemigo: es decir, las personas en Internet.

Recuerde, los primeros intentos de chatbots se volvieron súper nazis muy rápido porque estaban absorbiendo conversaciones de Internet. La mayoría de las personas en la red tienen bastante joda y descubren la energía. Ya hemos visto lo que sucedió cuando nuestros conciudadanos del infierno fueron desatados en Bing. ¿Qué sucede cuando se inicia Bing? aprendiendo de lo que los trolls le están haciendo?

Mire, este podcast siempre se ha tratado de discutir el poder de la tecnología para efectuar cambios a gran escala: bueno, malo o estúpido. Creo que la IA generativa pronto probará lo que es peor: el sesgo en el lado de los datos o la mala fe del usuario en el otro.

Vamos a profundizar en.


El podcast BetaKit está patrocinado por ventureLAB.
Las solicitudes para nuestro programa Iniciativa de catalizador de hardware ya están abiertas.
Los solicitantes seleccionados tendrán acceso a equipos de última generación en nuestro laboratorio de más de $7 millones, además de otros recursos.

Para aplicar hoy, visite: https://bit.ly/3RRoWJN.


Suscríbase a través de: RSS, Apple Podcasts, Spotify, Stitcher, Google Podcasts, YouTube

El podcast de BetaKit está organizado por Douglas Soltys y Rob Kenedi. Editado por Kattie Laur. Patrocinado por VentureLAB. Imagen destacada generada con Runway ML usando el mensaje: “Una foto que representa chatbots generativos de IA en el estilo impresionista”.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy