NetBSD y Gentoo lideran la prohibición del código escrito por IA. No todos los desarrolladores de software libre quieren que la IA se meta en su código.
Desde la comunidad del software libre y de código abierto (FOSS) nos llega esta semana un post en la Wiki de Gentoo y una actualización de las directrices de commit de NetBSD que prohíben o restringen fuertemente el uso de código generado por IA en estas distribuciones Linux de código abierto. Teniendo en cuenta lo controvertida que es la IA y lo a menudo que puede dar la vuelta a soluciones que no funcionan del todo bien (especialmente para tareas de programación), hay muchas razones prácticas para aplicar estas nuevas políticas.
Puede leer también | El impacto transformador de la Inteligencia Artificial en el desarrollo de Linux
En el caso de NetBSD, "el código generado por un gran modelo de lenguaje o tecnología similar" se "presume código contaminado y no debe ser comprometido sin aprobación previa por escrito". Así que, aunque su política pueda permitir técnicamente la contribución de la IA en el futuro, no será sin la supervisión humana que garantice que la(s) característica(s) funciona(n) realmente.
Mientras tanto, Gentoo Linux es más directo al prohibir las herramientas de IA por completo mientras se contribuye al proyecto Gentoo. El equipo de Gentoo cita directamente los derechos de autor, la calidad y las preocupaciones éticas detrás de su razonamiento para no permitir el código generado por LLM en su sistema operativo. En particular, sus preocupaciones éticas hacen hincapié en que los proyectos comerciales de IA "a menudo violan flagrantemente los derechos de autor para entrenar sus modelos", su uso de los recursos naturales puede ser demasiado severo y que los LLM se han utilizado para dar poder a los estafadores.
Puede leer también | Cómo utilizar el nuevo chatbot de inteligencia artificial de Meta
Frente a las declaraciones de gente como Jensen Huang, que califican la IA y el hardware de IA como "la muerte de la programación", estas decisiones de proyectos de software libre consolidados demuestran que seguimos necesitando el trabajo cualificado de los humanos para obtener los mejores resultados, no de las máquinas.
Afortunadamente para los detractores de la IA generativa, cada vez es más accesible desactivar estas funciones cuando no se desean. Por ejemplo, puedes bloquear los resultados de IA de los resultados de búsqueda de Google para evitar recibir consejos potencialmente incorrectos de un robot.
Puede leer también | Las 10 mejores herramientas de Software Libre para desarrollar soluciones de Inteligencia Artificial en plataforma Linux
En otras partes del mundo del software libre se sigue debatiendo el uso de la IA genérica; por ejemplo, todavía hay un hilo en el que se discute el uso de contenidos generados por IA en el proyecto Debian. En su mayor parte, sin embargo, parece que Debian no está dispuesta a pisar el acelerador y prohibir rotundamente la IA generativa en su proyecto, como Gentoo y NetBSD, lo que podría tener interesantes implicaciones a largo plazo si Debian acaba demostrando los peligros de dejar que una IA escriba un sistema operativo.
Otras razones
- El código generado por IA puede no cumplir con los altos estándares de calidad y confiabilidad requeridos en proyectos críticos como el kernel de Linux. Los desarrolladores humanos experimentados tienen un entendimiento profundo de la arquitectura y los requisitos del sistema, algo que las IA actuales no pueden igualar.
- El código generado por IA podría contener vulnerabilidades de seguridad debido a errores o falta de comprensión del contexto completo. Esto puede resultar en fallos explotables que comprometan la seguridad del sistema operativo.
- El código generado por IA puede no cumplir con las licencias y los derechos de autor que rigen el desarrollo de software libre y de código abierto. Hay preocupaciones sobre la propiedad intelectual y cómo se deben manejar los derechos sobre el código producido por IA
- El uso de IA para generar código plantea cuestiones éticas sobre la responsabilidad en caso de errores o fallos. Determinar quién es responsable del código generado por una máquina puede ser complicado.
- La comunidad de código abierto valora la transparencia y la confianza. El código generado por IA puede no ser transparente en su proceso de creación, lo que puede generar desconfianza entre los desarrolladores y usuarios.