StarCoder: la alternativa gratuita, ética y legal a los sistemas de IA de generación de código

StarCoder: la alternativa gratuita, ética y legal a los sistemas de IA de generación de código

ServiceNow y Hugging Face han lanzado StarCoder, una alternativa gratuita a sistemas de inteligencia artificial (IA) generadores de código como el Copilot de OpenAI.

Tecnología | 08 de mayo de 2023
Pere Borràs

ServiceNow y Hugging Face han lanzado StarCoder, una alternativa gratuita a sistemas de inteligencia artificial (IA) generadores de código como el Copilot de OpenAI. StarCoder fue entrenado en más de 80 lenguajes de programación y se integra con el editor de código Visual Studio Code de Microsoft. Puede seguir instrucciones básicas y responder preguntas sobre el código, y sus creadores aseguran que iguala o supera el modelo de IA utilizado en las versiones iniciales de Copilot.

Si las herramientas de codificación impulsadas por la IA pueden superar problemas éticos, técnicos y legales, podrían reducir considerablemente los costos de desarrollo y permitir que los codificadores se centren en tareas más creativas, según un estudio de la Universidad de Cambridge.

StarCoder está licenciado para uso libre de regalías por cualquier persona, incluidas las corporaciones. Pertenece al proyecto BigCode de Hugging Face y ServiceNow Research, que busca desarrollar sistemas de IA para el código de manera abierta y responsable.

Uno de sus modelos, StarCoder, fue entrenado durante varios días en un conjunto de datos de código abierto llamado The Stack, que contiene más de 19 millones de repositorios con licencias permisivas y más de seis terabytes de código en más de 350 lenguajes de programación. El proyecto ofrece una forma para que los desarrolladores opten por salir de The Stack, elimina la información de identificación personal (PII) y tiene un conjunto de datos separado de archivos que contienen PII, que planean lanzar a investigadores a través de acceso protegido.

El equipo de BigCode también utilizó la herramienta de detección de código malicioso de Hugging Face para eliminar archivos que podrían considerarse inseguros, como los que tienen exploits conocidos. Sin embargo, los problemas de privacidad y seguridad con los sistemas de IA generativos están bien establecidos, y algunos expertos legales han argumentado que estos sistemas podrían poner en riesgo a las empresas si incorporan textos protegidos por derechos de autor o información sensible en su software de producción.


Comentarios


Efemérides







Política de Privacidad
Política de cookies