No se preocupe si sus hijos no son educados con Alexa

LLa semana pasada estaba escribiendo, trabajando en una historia, cuando apareció un anuncio de video ruidoso en mi pantalla. “¡Cállate ya!” gruñí. De repente, Siri, a quien no me di cuenta que había activado, intervino con el tono de una hermana mayor. “¡Eso no es agradable!” ella me amonestó. Me sentí un poco… extraño. Estaba siendo incivilizado, lo cual no debería ser con ninguna entidad. ¿Pero acabo de herir los sentimientos de una máquina? ¿Debería disculparme?

Por supuesto, puedo ver lo absurdo de preocuparse por los sentimientos de una máquina. soy un adulto

Pero en los últimos años, muchos investigadores comenzaron a preguntarse cómo se relacionan los niños con la omnipresencia de los dispositivos inteligentes controlados por voz, como Alexa, Siri y Google Home. Estas preguntas se vuelven aún más apremiantes a medida que los dispositivos de IA pasan de ser meras comodidades que reproducen música o indican el clima a compañeros para los ancianos, compañeros interactivos para los jóvenes e incluso asistentes de enseñanza que ayudan a los cuidadores a mejorar las habilidades sociales en niños con autismo. Sin embargo, hay una trampa en la forma en que estos dispositivos interactúan con las personas que pueden tener efectos particularmente pronunciados en los niños que aún están aprendiendo las reglas básicas de la etiqueta social.

“Lo último que quiero que piensen mis hijos es que tienen que decir ‘por favor’ a un sistema de vigilancia”.

Eso ha provocado una gran cantidad de preguntas de los científicos. ¿Los niños diferencian la IA de las personas? ¿Deberían usar “por favor” y “gracias” al hablar con las IA? Si no lo hacen, ¿están aprendiendo que no tienen que ser amables para obtener ayuda o interacción? ¿Cómo influye eso en su desarrollo social y emocional, y en su capacidad de empatía y compasión? ¿Alexa y compañía obstaculizan el coeficiente intelectual emocional de los niños, las capacidades cruciales que todo ser humano necesita para entablar amistades, distinguir el bien del mal y, en general, tener éxito en la vida? ¿Deberíamos preocuparnos de que los dispositivos inteligentes atonten a nuestros hijos socialmente?

Adivina qué, ni Alexa, ni Siri ni Google Home pueden obtener la respuesta.

Ciertamente, los dispositivos aún no fomentan bien la civilidad, señala Anmol Arora, un médico académico de la Universidad de Cambridge que estudia inteligencia artificial. En las interacciones humanas, si un niño se olvida de decir la palabra mágica, generalmente se le recordará que la use. “Pero está más allá del alcance de un dispositivo inteligente”, dice Arora, quien recientemente fue coautor de un artículo de opinión sobre el tema en Archivos de Enfermedades en la Infancia. Amazon equipó a Alexa con una función opcional de “Palabra mágica” en 2018 que hace que la IA reconozca los gestos correctos; Google Home comenzó a ofrecer una función similar el mismo año, llamada “Pretty Please”; y mi experiencia con Siri me hizo saber que Apple también puede tener oídos para la etiqueta.

Incluso si estos asistentes virtuales pueden intervenir como policías de modales, existen otros problemas. Los dispositivos de IA pueden responder a los comandos y proporcionar información, pero aún así no pueden fomentar una interacción significativa durante la cual se produzca el aprendizaje, señala Arora. Cuando los niños hacen preguntas a los adultos, generalmente sigue una conversación. El adulto explica cosas o desafía o alienta el razonamiento del niño a través de un diálogo en evolución. Los dispositivos inteligentes no son lo suficientemente inteligentes para hacer eso, sino que obtienen la información solicitada, a menudo sin contexto. Tampoco alientan a los niños a pensar críticamente sobre la información, ni a diferenciar lo correcto de lo incorrecto, todas acciones cruciales para establecer una perspectiva informada. “Hay un elemento de la conversación que falta cuando los niños van a los dispositivos”, dice Arora.

¿Los niños diferencian la IA de las personas?

Los asistentes tampoco evalúan críticamente la información que obtienen. Un ejemplo aterrador de esto fue cuando, en 2021, Alexa le sugirió a una niña de 10 años que “enchufe un cargador de teléfono hasta la mitad en un tomacorriente de pared, luego toque un centavo en las puntas expuestas”. La IA hizo esto porque se le había pedido un “desafío para hacer”. El llamado “desafío del centavo” había estado circulando en TikTok y otras redes sociales, por lo que Alexa buscó porque era una coincidencia lingüística, pero sin ningún filtro. Posteriormente, Amazon dijo que actualizó a Alexa para corregir el error, pero el incidente fue una demostración escalofriante de los límites de razonamiento de la IA.

Y, sin embargo, eso no es lo que más preocupa a Jordan Shapiro, profesor asociado de la Universidad de Temple, miembro de educación de la Institución Brookings y autor del libro. La nueva infancia: criar niños para prosperar en un mundo conectado. Shapiro ve los problemas de la comunicación entre los niños y la IA bajo una luz diferente.

Alexa y Siri no atontarán emocionalmente a nuestros hijos porque no los están criando, dice. Estos dispositivos son simplemente una forma diferente de medios. Por lo general, no esperamos que la televisión, los videojuegos o Internet sean sustitutos al por mayor para enseñarles a nuestros hijos modales, pensamiento crítico y reglas básicas de seguridad. Los dispositivos de voz son otra versión más sofisticada de dichos medios. Brindan información y entretienen, pero no reemplazan a los adultos pensantes y racionales en la vida de los niños.

Shapiro también cree que los niños pueden notar la diferencia entre un ser humano y una voz proveniente de una caja electrónica, incluso si sus impresionantes habilidades de lenguaje natural nos desconciertan de vez en cuando a los adultos. “Tiendo a darles mucho más crédito a los niños y asumo que son capaces de ‘cambiar de código’ y saber que están interactuando [with a device], pero en realidad no creen que sea un humano”, dice. “Ciertamente, la preocupación por el contenido sin filtrar me parece razonable”, añade, pero lo que realmente le preocupa es otra cosa.

Sus mayores preocupaciones son la privacidad y el suministro de información. Los dispositivos de voz, incluso solo durante sus momentos de escucha activa, recopilan enormes bases de datos de información. Esta información se convierte en un activo muy valioso, ya sea por marketing u otras razones, y es importante enseñar a los jóvenes este matiz esencial. Cuando interactuamos con dispositivos de voz, no estamos hablando con otros humanos o incluso con asistentes fieles, sino con tecnología que nos controla, generalmente con fines comerciales. “Así que mi propuesta provocativa siempre fue esta”, dice Shapiro. “Lo último que quiero que piensen mis hijos es que tienen que decir ‘por favor’ a un sistema de vigilancia”.

Entonces, los niños deben aprender que no agradecer a un dispositivo inteligente puede no ser tan tonto, después de todo. Y no debería preocuparme por ofender a Siri.

Lina Zeldovich creció en una familia de científicos rusos, escuchando cuentos antes de dormir sobre volcanes, agujeros negros e intrépidos exploradores. ella ha escrito para Los New York Times, Científico americano, Resumen del lectory Revista Audubon, entre otras publicaciones, y ganó cuatro premios por cubrir la ciencia de la caca. Su libro, La otra materia oscura: la ciencia y el negocio de convertir los desechos en riqueza, fue publicado en 2021 por Chicago University Press. Puedes encontrarla en LinaZeldovich.com y @LinaZeldovich.

Imagen principal: Sharomka / Shutterstock



Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.