7 de agosto de 2025

Damos un paso en la dirección de Terminator: una IA ha creado por sí misma el cerebro digital de un dron autónomo

"Damos un paso en la dirección de Terminator": una IA ha creado por sí misma el cerebro digital de un dron autónomo

La ingeniería robótica está asistiendo a una revolución: por primera vez, una IA ha sido capaz de codificar y desplegar un sistema completo de comando y control para drones, sin intervención humana directa en la programación del mismo. Este logro marca un punto de inflexión que ilustra hasta qué punto las capacidades humanas están siendo igualadas —y en ciertos aspectos, superadas— por la IA.

Peter J. Burke, investigador de la Universidad de California en Irvine, ha demostrado en un reciente 'paper' académico que un sistema de IA moderno puede generar todo el código necesario para operar un dron de forma autónoma, tanto en simulación como en vuelo real. Este sistema, llamado WebGCS (Web Ground Control Station), va más allá del software tradicional: es una estación de control basada en navegador y alojada directamente en el dron.

¿Qué hace este "cerebro" autónomo?

El sistema IA genera una interfaz que permite:

  • Planificación de misiones autónomas
  • Ejecución de vuelos mediante puntos de referencia (waypoints)
  • Telemetría en tiempo real (ubicación, altitud, velocidad, orientación)
  • Funciones críticas como aterrizaje automático, despegue y retorno a casa
  • Control desde cualquier dispositivo con navegador, sin necesidad de software especializado

Y todo esto... sin que una sola línea de código haya sido escrita por un humano.

La analogía con el cerebro humano

Burke plantea una analogía clara con la neuroanatomía: los sistemas de bajo nivel como Ardupilot (firmware de vuelo) actúan como el tronco encefálico, manteniendo funciones básicas como la estabilidad del dron. Por encima se sitúa WebGCS, que actúa como una corteza cerebral digital, capaz de tomar decisiones, visualizar datos, y planificar acciones más complejas.

¿Cómo se construyó este cerebro artificial?

El documento hecho público nos presenta una historia en cuatro pasos:

  1. Claude (200K tokens): Con modelos limitados, se lograron prototipos funcionales pero insuficientes para vuelo real. El proyecto se detuvo temporalmente por falta de 'memoria' en el modelo.
  2. Gemini 2.5 (1M tokens): Google lanzó su nuevo modelo de IA con capacidad extendida. Esto permitió instalar el sistema en una Raspberry Pi a bordo de un dron real, y hacer las primeras pruebas de vuelo, aunque con errores persistentes.
  3. Cursor IDE + GitHub: Se reorganizó el proyecto en múltiples archivos (Python, HTML, JS), y se lograron pruebas de vuelo completas con funcionalidad estable. Aparecieron nuevos retos, como mantener sincronía entre front-end y back-end.
  4. Windsurf IDE: Se refinó el sistema, se agregó selección de IP, notificaciones por voz, y se solucionaron los errores previos. Finalmente, se logró una versión 2.0 completamente funcional, desplegada y probada con éxito tanto en drones reales como simulados.

Desarrollar un sistema equivalente a WebGCS había necesitado, anteriormente, invertir más de 2.000 horas de trabajo humano, repartidas entre estudiantes de grado, posgrado y expertos. En contraste, la IA logró una solución comparable con solo 100 horas de 'prompt engineering' humano —gran parte de ese tiempo esperando respuestas del modelo.

Código y decisiones técnicas (elegidas por la IA)

El proyecto logró generar un sistema de unas 10.000 líneas de código. La IA no solo escribió el código, sino que diseñó la arquitectura del sistema:

  • Backend en Python/Flask
  • Comunicación con drones usando PyMAVLink
  • Front-end interactivo con mapa en tiempo real, paneles de control y HUD
  • Comunicación en tiempo real mediante WebSockets

Aunque Flask no es ideal para escalar a miles de drones, fue una decisión razonable en su momento, dado que el objetivo indicado era controlar un solo dron.

Por otra parte, no está claro cuántas líneas de código puede realmente manejar una IA antes de "perder el hilo": estudios recientes muestran que incluso los modelos con memoria extendida sufren degradación de rendimiento al manejar contextos demasiado grandes. Para sistemas más complejos, podrían requerirse nuevas estrategias, como enjambres de agentes IA colaborativos, que aún están en investigación.

Resultados de vuelo y simulación

Los vuelos reales con un dron equipado con una Raspberry Pi Zero 2 W mostraron que el sistema funcionaba sin problemas:

  • La conexión WiFi entre el dron y el navegador del piloto fue estable hasta 100 metros
  • El control del vuelo, armado, despegue y regreso al punto de origen funcionaron como se esperaba
  • El dron fue controlado únicamente mediante el código generado por IA

Además, el sistema se probó con éxito en simuladores como SITL de Ardupilot y se desplegó en la nube, facilitando pruebas seguras sin hardware físico.

Sin embargo, probar software generado por IA sin revisión humana es arriesgado, especialmente cuando controla sistemas físicos. Aunque las pruebas se hicieron en entornos seguros, aún no existen protocolos claros para validar este tipo de código cuando deban usarse en contextos críticos.

Imagen | Marcos Merino mediante IA

En Genbeta | "Ya lo advertí en 1984 y nadie me hizo caso": James Cameron advierte del avance de la IA y ve posible el futuro de 'Terminator'

-
La noticia "Damos un paso en la dirección de Terminator": una IA ha creado por sí misma el cerebro digital de un dron autónomo fue publicada originalmente en Genbeta por Marcos Merino .



☞ El artículo completo original de Marcos Merino lo puedes ver aquí

No hay comentarios.:

Publicar un comentario