"Si todo falla, ya no basta con parchear el bug": un desarrollador explica por qué es peligroso tratar a...

IA no es software: riesgos y diferencias

tecnologia Una caja negra con circuitos y conexiones representando la complejidad de la IA, con patrones de datos y redes neuronales en el fondo.

Durante más de cuarenta años, el público ha asumido que el software puede fallar y que esos fallos se corrigen con parches. Sin embargo, el desarrollador Boyd Kane advierte que tratar a la IA como software tradicional es un error. La IA opera con patrones entrenados a partir de enormes cantidades de datos, no con reglas explícitas.

Un modelo de lenguaje como ChatGPT o Claude no contiene instrucciones de comportamiento, sino una red de pesos numéricos que reflejan correlaciones estadísticas. Los errores en la IA provienen de los datos, no del código. En un programa clásico, un 'bug' es localizable, pero en una IA, el fallo puede esconderse en cientos de gigabytes de datos de entrenamiento.

Reentrenar un modelo no garantiza la eliminación de errores. La IA es probabilística y sensible a matices, lo que hace imposible garantizar comportamientos estables. Los modelos de IA no se diseñan para cumplir reglas predefinidas, sino que aprenden a imitar comportamientos humanos.

Sus capacidades emergen de manera impredecible, lo que puede esconder riesgos inesperados. Los expertos no pueden explicar completamente lo que el sistema 'ha aprendido'. El conjunto de datos FineWeb contiene unos 11 billones de palabras, lo que hace que encontrar la causa de un error sea extremadamente difícil.

Crítica:

El artículo expone claramente los riesgos de tratar la IA como software tradicional, destacando la complejidad y los desafíos de los modelos de IA. La comparación entre software tradicional e IA es esclarecedora.

Comentarios

¡Sorpresa!
¡Ya eres Premium!

De hecho, aquí todos somos Premium. En NoticiasResumidas.com no existen las cuentas de pago. Disfruta de todas las funcionalidades, gratis, sin registros y para siempre. ¡A resumir se ha dicho!