El gigante tecnológico Google ha anunciado actualizaciones de sus tecnologías de inteligencia artificial, apenas un día después de que su rival OpenAI anunciara cambios similares en sus ofertas, y ambas compañías intentan dominar el mercado emergente rápidamente donde los seres humanos pueden hacer preguntas sobre los sistemas informáticos y obtener respuestas en el tiempo. estilo de respuesta humana.
Es parte de un esfuerzo para hacer que los sistemas de inteligencia artificial como ChatGPT no solo sean más rápidos, sino también más completos en sus respuestas de inmediato sin tener que hacer múltiples preguntas.
El martes, Google demostró cómo se fusionarían las respuestas de la IA con algunos resultados de su influyente motor de búsqueda. Como parte de su conferencia anual de desarrolladores, Google prometió que comenzaría a utilizar IA para proporcionar resúmenes de preguntas y búsquedas, y que al menos algunas de ellas estarían etiquetadas como IA en la parte superior de la página.
Los resúmenes generados por IA de Google solo están disponibles en los EE. UU., por ahora, pero se escribirán en lenguaje conversacional.
Mientras tanto, el sistema GPT-4o recientemente anunciado por OpenAI será capaz de dar respuestas conversacionales con una voz más humana.
Llamó la atención el lunes por poder interactuar con los usuarios mientras empleaba una conversación natural con muy poca demora, al menos en modo de demostración. Los investigadores de OpenAI mostraron las nuevas capacidades del asistente de voz de ChatGPT, incluido el uso de nuevas capacidades de visión y voz para hablar con un investigador sobre la resolución de una ecuación matemática en una hoja de papel.
En un momento, un investigador de OpenAI le dijo al chatbot que estaba de muy buen humor porque estaba demostrando “lo útil y sorprendente que eres”.
ChatGPT respondió: “¡Oh, basta! ¡Me estás haciendo sonrojar!”
“Se siente como la IA de las películas”, escribió el director ejecutivo de OpenAI, Sam Altman, en una publicación de blog. “Hablar con una computadora nunca me ha parecido realmente natural; ahora sí lo es”.
Las respuestas de la IA no siempre son correctas
Pero los investigadores del sector de la tecnología y la inteligencia artificial advierten que a medida que las personas obtienen información de los sistemas de IA de maneras más fáciles de usar, también deben tener cuidado de detectar respuestas inexactas o engañosas a sus consultas.
Y debido a que los sistemas de inteligencia artificial a menudo no revelan cómo llegaron a una conclusión porque las empresas quieren proteger los secretos comerciales detrás de su funcionamiento, tampoco tienden a mostrar tantos resultados sin procesar ni datos de origen como los motores de búsqueda tradicionales.
Esto significa, según Richard Lachman, que pueden ser más propensos a dar respuestas que parezcan o suenen seguras, incluso si son incorrectas.
El profesor asociado de Medios Digitales en la Escuela de Medios RTA de la Universidad Metropolitana de Toronto dice que estos cambios son una respuesta a lo que los consumidores demandan cuando usan un motor de búsqueda: una respuesta rápida y definitiva cuando necesitan información.
“No estamos necesariamente buscando 10 sitios web; queremos una respuesta a una pregunta. Y esto puede lograrlo”, dijo Lachman,
Sin embargo, señala que cuando la IA da una respuesta a una pregunta, puede estar equivocada.
A diferencia de los resultados de búsqueda más tradicionales, donde se muestran múltiples enlaces y fuentes en una lista larga, es muy difícil analizar la fuente de una respuesta proporcionada por un sistema de inteligencia artificial como ChatGPT.
La perspectiva de Lachman es que podría resultar más fácil para las personas confiar en una respuesta de un chatbot de IA si se trata de un juego de roles convincente como un ser humano haciendo bromas o simulando emociones que producen una sensación de comodidad.
“Eso hace que uno, tal vez, se sienta más cómodo de lo que debería con la calidad de las respuestas que está recibiendo”, dijo.
Las empresas ven impulso en la IA
Aquí en Canadá, al menos una empresa que trabaja en inteligencia artificial está entusiasmada con una interfaz más humana para los sistemas de inteligencia artificial que están impulsando Google u OpenAI.
“No se equivoquen, aquí estamos en una carrera armamentista competitiva con respecto a la IA generativa y hay una enorme cantidad de capital e innovación”, dijo Duncan Mundell, de AltaML, con sede en Alberta.
“Simplemente abre la puerta a capacidades adicionales que podemos aprovechar”, dijo sobre la inteligencia artificial en un sentido general, mencionando los productos que su empresa crea con IA, como el software que puede predecir el movimiento de los incendios forestales.
Señaló que, si bien las actualizaciones tecnológicas no son revolucionarias en su opinión, mueven la inteligencia artificial en una dirección que él acoge con agrado.
“Lo que OpenAI ha hecho con este lanzamiento nos acerca un paso más a la cognición humana, ¿verdad?” dijo Mundel.
Un investigador califica la IA sensible como “una tontería”
Las actualizaciones de los sistemas de inteligencia artificial de Google u OpenAI podrían recordar a los fanáticos de la ciencia ficción la computadora altamente conversacional en Star Trek: la próxima generaciónpero un investigador de la Western University dice que considera que las nuevas actualizaciones son decorativas, en lugar de cambiar realmente la forma en que se procesa la información.
“Muchas de las características notables de estos nuevos lanzamientos son, supongo que se podría decir, campanas y silbatos”, dijo Luke Stark, profesor asistente en la Facultad de Estudios de Información y Medios de la Western University.
“En términos de las capacidades de estos sistemas para ir más allá de lo que han sido capaces de hacer hasta ahora… esto no es un gran salto”, dijo Stark, quien calificó la idea de que una inteligencia artificial sensible podría Existen con la tecnología actual “una especie de tontería”.
Las empresas que impulsan las innovaciones en inteligencia artificial dificultan tener claridad sobre “para qué son buenos y no tan buenos estos sistemas”, dijo.
Esta es una posición de la que se hace eco Lachman, quien dice que la falta de claridad requerirá que los usuarios conozcan lo que leen en línea de una nueva manera porque
“En este momento, cuando tú y yo hablamos, estoy acostumbrado a pensar que cualquier cosa que parezca una persona es una persona”, dijo, señalando que los usuarios humanos pueden asumir que cualquier cosa que parezca otra persona tendrá la misma comprensión básica de cómo funciona el mundo.
Pero incluso si una computadora parece verse y sonar como un ser humano, no tendrá ese conocimiento, afirma.
“No tiene ese sentido de comprensión común de las reglas básicas de la sociedad. Pero parece que sí lo tiene”.
2024-05-15 10:00:00
#medida #vuelve #más #humana #los #expertos #advierten #los #usuarios #deben #pensar #más #críticamente #sobre #sus #respuestas,