La entidad con fines de lucro también permitió a OpenAI competir con otras empresas de tecnología por personal ofreciéndoles acciones. La compañía planeaba recaudar mil millones de dólares para ayudar a los empleados a vender sus acciones, una oferta que implicaba que el grupo valía alrededor de 86 mil millones de dólares.
No es sólo la estructura corporativa lo inusual. La junta directiva de OpenAI refleja la visión fundacional de la seguridad por encima de las ganancias, con poca o ninguna experiencia comercial y más centrada en los peligros de la IA que en maximizar el valor de lo que se ha descrito como la mayor oportunidad de negocio de la generación. Varios miembros de la junta tienen vínculos con grupos de expertos que financian proyectos destinados a prevenir los riesgos generados por la IA para la sociedad.
Según se informa, el científico jefe de OpenAI, Ilya Sutskever, lideró la decisión de despedir a Altman.Crédito: espanol
Altman, a diferencia de su junta directiva, ha estado muy concentrado en esa oportunidad. La plataforma ChatGPT ya tiene más de 100 millones de usuarios mensuales y se ha asociado no solo con Microsoft, que está incorporando IA en sus productos, sino también con una variedad de grandes empresas y desarrolladores.
Altman ha estado luchando, con mucho éxito, para comercializar ChatGPT y mantenerse por delante de las megaempresas tecnológicas, como Google y Facebook, que se han visto galvanizadas por el extraordinario interés en la IA que ha despertado el lanzamiento de ChatGPT.
La velocidad a la que se movía y la escala de sus ambiciones parecen haber chocado con la convicción de su junta directiva –y la de su científico jefe, Sutskever– de que el desarrollo de una IA segura debería proceder con cautela. Los directores de la organización sin fines de lucro pensaron que estaba anteponiendo la búsqueda de ganancias a la gestión de los riesgos de la IA.
Un factor que contribuyó a la colisión de filosofías puede haber sido los intentos de Altman de recaudar miles de millones de dólares (algunos informes dicen hasta 100 mil millones de dólares) de capitalistas de riesgo internacionales y fondos soberanos de Oriente Medio para dos nuevos proyectos.
Puede que la generación actual de IA no represente riesgos para la humanidad, pero la IA se está desarrollando tan rápidamente que esos riesgos ya se vislumbran en el horizonte.
Había estado negociando con empresas de semiconductores un intento de diseñar nuevos chips de menor costo para modelos de lenguaje grande para IA que competirían con el único proveedor importante actual, Nvidia.
También estaba buscando inversores en un nuevo negocio de construcción de dispositivos de hardware para tecnologías de inteligencia artificial como ChatGPT.
No está claro si esos posibles nuevos negocios estarían dentro de la estructura de OpenAI o si los estaba persiguiendo por su propia cuenta, pero las discusiones proporcionan una indicación del ritmo al que se estaba moviendo y cuán fuera de lugar estaba con la aversión al riesgo. de su junta directiva.
Si Altman prevalece sobre su junta directiva y regresa a OpenAI, es inevitable que quiera mantener el liderazgo del grupo sobre sus competidores y convertir el extraordinario valor que ha ayudado a crear en algo más accesible. No tiene acciones en la rama con fines de lucro de OpenAI.
El cofundador de OpenAI, Greg Brockman, renunció como presidente de la compañía el viernes en solidaridad con Altman.Crédito: Bloomberg
De lo contrario, por supuesto, tiene la opción de perseguir sus ambiciones de IA de forma independiente. No faltarían patrocinadores dispuestos a ayudar a financiarlos.
La industria de la IA se encuentra en una especie de carrera armamentista, tanto entre competidores comerciales como entre naciones. La administración Biden ha estado agregando capas de sanciones para tratar de evitar que China, por ejemplo, obtenga acceso a los chips más avanzados necesarios para la IA.
Esto pone de relieve la importancia de la tensión entre la prioridad que da la junta de OpenAI al desarrollo seguro de la tecnología sobre su comercialización.
Puede que la generación actual de IA no represente riesgos para la humanidad, pero la IA se está desarrollando tan rápidamente que esos riesgos ya se vislumbran en el horizonte.
Los gobiernos de todo el mundo están promulgando leyes o, como es el caso de los EE. UU., celebrando acuerdos voluntarios con desarrolladores de IA como acuerdos provisionales, para imponer algunas restricciones a las aplicaciones de IA que se perciben como más riesgosas: el reconocimiento facial, la extracción de datos biométricos de las redes sociales, su papel. en la gestión de infraestructuras críticas, utilizando la IA para controlar el acceso a los servicios y beneficios públicos y su capacidad potencial para crear y difundir desinformación.
Quieren más transparencia sobre los datos de entrenamiento utilizados para desarrollar modelos de IA, cómo los modelos toman decisiones y las consecuencias de esas decisiones.
Sin embargo, la regulación de la IA está en su infancia y enfrenta una feroz oposición de la industria, que está más centrada en los beneficios que la IA puede generar (y las ganancias) que en los riesgos que preocupan a los reguladores (y a la junta directiva de OpenAI).
Cargando
Por lo tanto, el conflicto dentro de OpenAI que quedó expuesto tan abruptamente el viernes refleja el dilema más amplio sobre si se debe permitir que el desarrollo de la IA continúe su camino acelerado sin obstáculos o si es necesario frenarlo y someterlo a un escrutinio mucho mayor para garantizar la cada vez mayor Los modelos poderosos no causan daños calamitosos.
El boletín Business Briefing ofrece historias importantes, cobertura exclusiva y opiniones de expertos. Regístrese para recibirlo todas las mañanas de los días laborables.
2023-11-20 02:58:32
#salida #Sam #Altman #expone #mundo,