Cuatro líderes estadounidenses en inteligencia artificial (IA) anunciaron el miércoles la formación de un grupo dedicado a abordar los riesgos que pueden presentar las versiones de vanguardia de la tecnología en la industria.
Anthropic, Google, Microsoft y el fabricante de la aplicación ChatGPT, OpenAI, dijeron que el recién creado Frontier Model Forum se basará en la experiencia de sus miembros para minimizar los riesgos de IA y respaldar los estándares de la industria.
Las empresas se comprometieron a compartir las mejores prácticas entre sí, así como con legisladores e investigadores.
Los modelos Frontier se refieren a plataformas incipientes de aprendizaje automático a gran escala que llevan la IA a nuevos niveles de sofisticación y también cuentan con capacidades que podrían resultar peligrosas para los humanos.
“Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que su uso sea seguro y permanezca bajo control humano”, dijo el presidente de Microsoft, Brad Smith, en un comunicado.
“Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que brinde beneficios a toda la humanidad”, resaltó.
El presidente estadounidense, Joe Biden, evocó los “enormes” riesgos y esperanzas generadas por la IA en una reunión en la Casa Blanca la semana pasada con representantes de las gigantes tecnológicas que se comprometieron a tomar precauciones para todo tipo de protección, desde ciberataques hasta fraudes a medida que crece el sector.
Junto a los principales representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, Biden dijo que las empresas se han comprometido a “guiar la innovación responsable” a medida que la IA se extiende cada vez más en la vida personal y empresarial.
Antes de la reunión, los siete gigantes de la IA se comprometieron con una serie de salvaguardas autorreguladas que, según la Casa Blanca, “subrayarían tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza”.
En su compromiso, las empresas acordaron desarrollar “mecanismos técnicos robustos”, como sistemas de marcas de agua, para garantizar que los usuarios sepan cuándo el contenido es de IA y no de humanos.
El paso de Amazon
Durante la AWS Summit in New York, que se llevó a cabo este miércoles, Amazon lanzó Agents for Bedrock, que dejará a las compañías construir aplicaciones de IA que hagan sus tareas. Por ejemplo, reservar vuelos para usuarios, en vez de decirle que lo hagan. Los agentes de IA son, a grandes rasgos, quienes reservan una cena en un restaurante, no quienes sugieren a los usuarios a dónde ir. La nube de Amazon, AWS, se inclina por convertirse en una base de datos de herramientas generativas de IA y ahora agregará acceso a los agentes de IA.
“Creo que esto impulsará a los desarrolladores que querían una forma más fácil de crear agentes y, al mismo tiempo, personalizar los datos que leen los modelos”, le dice a The Verge Swami Sivasubramanian, vicepresidente de datos y aprendizaje automático de AWS. “Los agentes de construcción tomaron mucho tiempo incluso con lo avanzada que es ahora la IA generativa, pero lo estamos haciendo para que los desarrolladores puedan acceder exactamente a los modelos que necesitan”.
Si bien Amazon no ha sido un gran jugador en la carrera armamentista generativa de IA como Meta, Google, OpenAI y Microsoft, se ha posicionado, a través de AWS, como un proveedor de infraestructura clave para el espacio. StabilityAI y Anthropic lanzaron nuevas versiones de sus modelos de lenguaje grande, Stable Diffusion XL 1.0 y el chatbot Claude 2, que ahora están disponibles en Bedrock.
Agents for Bedrock está dirigido a nuevas empresas y empresas, lo que les permite usar sus propios datos para enseñar modelos básicos, como modelos de imagen a texto o modelos de lenguaje extenso, y luego crear aplicaciones adicionales para finalizar las tareas. Un desarrollador puede elegir qué modelo fundamental usar, proporcionar algunas instrucciones y elegir qué datos leer el modelo.
Con información de AFP
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]