Mark Zuckerberg apuesta por la IA de código abierto como el futuro de la tecnología.
Mark Zuckerberg, el creador de Meta, sostiene que la inteligencia artificial basada en código abierto representa el futuro de la tecnología, haciendo una analogía con la transición de Unix a Linux, que se convirtió en un estándar en la industria. Esto lo compartió en una entrada en la página oficial de la empresa.
En los inicios de la computación de alto rendimiento, el modelo de código cerrado de Unix predominaba en las empresas. No obstante, Linux, con su enfoque de código abierto, fue ganando terreno, según explica Zuckerberg.
Este modelo permitía a los desarrolladores alterar el código libremente y resultaba más económico.
“Hoy, Linux es la base estándar de la industria tanto para la computación en la nube como para los sistemas operativos que ejecutan la mayoría de los dispositivos móviles”, declara Zuckerberg.
De acuerdo con el CEO de Meta, la IA debería seguir un camino similar, siendo el código abierto la mejor opción para los desarrolladores. Por esta razón, Meta ha lanzado Llama 3.1 405B, su primer modelo de IA de código abierto, junto con otros modelos como Llama 3.1 70B y 8B.
Los modelos Llama permiten abordar diversas necesidades que, según Zuckerberg, son esenciales para muchos desarrolladores, ejecutivos y autoridades.
Estas incluyen la capacidad de entrenar, mejorar y depurar modelos propios; la independencia de proveedores cerrados; la protección de datos; la eficiencia y asequibilidad; y la creación de un ecosistema que será el estándar a largo plazo.
IA de Código Abierto
Zuckerberg aboga por un desarrollo de IA basado en código abierto para beneficiar a las generaciones futuras.
“El código abierto garantizará que más personas en todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de un pequeño número de empresas y que la tecnología pueda implementarse de manera más uniforme y segura en toda la sociedad”, afirma.
En cuanto a la seguridad, se identifican dos tipos de riesgos: daños no intencionales, como consejos de salud erróneos, y daños intencionales, donde actores maliciosos utilizan IA para causar daño.
Aunque los sistemas de seguridad de Llama, como Llama Guard, probablemente ofrezcan mayor seguridad que los modelos cerrados, la preocupación principal reside en los daños intencionales.
“El equilibrio de poder será fundamental para la seguridad de la IA. Creo que será mejor vivir en un mundo donde la IA se implemente ampliamente para que los actores más grandes puedan controlar el poder de los actores maliciosos más pequeños”, concluye Zuckerberg.
Así, las grandes instituciones tendrán la responsabilidad de promover la seguridad y estabilidad social, mientras que el código abierto permitirá que todos accedan a modelos similares, facilitando que los gobiernos y grandes instituciones manejen amenazas de actores con menos recursos.