
Autoconducir coches a menudo lucha con situaciones que son comunes para los conductores humanos. Cuando se enfrentan a zonas de construcción, autobuses escolares, salidas eléctricas o peatones de mala conducta, estos vehículos a menudo se comportan impredeciblemente, provocando accidentes o eventos de congelación, causando importantes perturbaciones al tráfico local y posiblemente bloqueando a los primeros equipos de trabajo. Debido a que autoconducir automóviles no puede manejar con éxito problemas de rutina, las empresas autoconductoras utilizan niñeras humanas para supervisarlas remotamente e intervenir cuando sea necesario.
Esta idea —los humanos que supervisan los vehículos autónomos a distancia— no es nueva. El ejército estadounidense lo ha estado haciendo desde los años 80 con vehículos aéreos no tripulados (UAVs). En esos primeros años, los militares experimentaron numerosos accidentes debido a estaciones de control mal diseñadas, falta de capacitación y retrasos en la comunicación.
Como piloto de combate de la Marina en el decenio de 1990, fui uno de los primeros investigadores en examinar cómo mejorar las interfaces de supervisión remota UAV. Las miles de horas que yo y otros hemos dedicado a trabajar y observar estos sistemas generaron un profundo conjunto de conocimientos sobre cómo gestionar de forma segura las operaciones remotas. Con recientes revelaciones de que las operaciones comerciales autoconducibles de Estados Unidos son manejadas por operadores en Filipinas, está claro que las empresas autoconducir no han aprendido las lecciones militares duras que promoverían un uso más seguro de autoconducir coches hoy en día.
Mientras estaba estacionado en el Pacífico occidental durante la Guerra del Golfo, pasé una cantidad significativa de tiempo en los centros de operaciones aéreas, aprendiendo cómo se planeaban, implementaban y luego replaneaban cuando el plan original inevitablemente se desmoronó. Después de obtener mi doctorado, aproveché esta experiencia para comenzar la investigación sobre el control remoto de los VA para las tres ramas del ejército estadounidense. Sentada hombro a hombro en pequeños trailers con operadores que vuelan UAVs en ejercicios locales o a 4000 millas de distancia, mi trabajo era aprender acerca de los puntos de dolor para los operadores remotos, así como identificar posibles mejoras a medida que ejecuten control de supervisión sobre los vehículos que podrían estar volando a mitad del mundo.
El control de supervisión se refiere a situaciones en las que los seres humanos monitorean y apoyan sistemas autónomos, dando un paso cuando sea necesario. Para autoconducir automóviles, esta supervisión puede tomar varias formas. La primera es la teleoperación, donde un humano controla remotamente la velocidad y dirección del coche desde lejos. Los operadores se sientan en una consola con volante y pedales, similares a un simulador de carreras. Debido a que este método se basa en el control en tiempo real, es extremadamente sensible a los retrasos de comunicación.
La segunda forma de control de supervisión es la asistencia remota. En lugar de conducir el coche en tiempo real, un humano da orientación de alto nivel. Por ejemplo, un operador puede hacer clic en un camino en un mapa (llamado “breadcrumbs”) para mostrar el coche donde ir, o interpretar la información que la AI no puede entender, como las señales de mano de un trabajador de la construcción. Este método tolera más demora que la teleoperación, pero sigue siendo sensible al tiempo.
Cinco lecciones de operaciones militares de drones
Más de 35 años de operaciones UAV, los militares encontraron sistemáticamente cinco retos importantes durante las operaciones de drones que proporcionan lecciones valiosas para los automotores.
Latency
Latency, que tarda en enviar y recibir información debido a la distancia o la mala calidad de red, es el desafío más importante para el control remoto de vehículos. Los humanos también tienen su propio retraso incorporado: retraso neuromuscular. Incluso en condiciones perfectas, la gente no puede responder con confianza a la nueva información en menos de 200–500 milisegundos. En operaciones remotas, donde ya existe la comunicación, esto hace que el control en tiempo real sea aún más difícil.
En operaciones tempranas de drones, pilotos de la Fuerza Aérea de Estados Unidos en Las Vegas (el principal centro de operaciones UAV de EE.UU.) intentaron despegar y aterrizar drones en el Medio Oriente utilizando la teleoperación. Con al menos dos segundos de retraso entre el mando y la respuesta, la tasa de accidente fue 16 veces la de los aviones de combate que realizan las mismas misiones . Los militares cambiaron a operadores locales de línea de visión y eventualmente a despegues y aterrizajes totalmente automatizados. Cuando entrevisté a los pilotos de estos UAV, todos destacaron lo difícil que era controlar el avión con retrasos considerables.
Las compañías auto-conducir generalmente confían en las redes de teléfonos celulares para entregar comandos. Estas redes son poco fiables en las ciudades y propensos a demoras. Esta es una razón por la que muchas empresas prefieren la asistencia remota en lugar de la teleoperación completa. Pero incluso la asistencia remota puede ir mal. In un incidente, un operador Waymo instruyó a un coche para girar a la izquierda cuando un semáforo apareció amarillo en el vídeo remoto, pero la latencia de la red significaba que la luz ya se había vuelto roja en el mundo real. Después de trasladar su centro de operaciones remotas de Estados Unidos a Filipinas, la latencia de Waymo aumentó aún más. Es imperativo que el control no sea tan remoto, tanto para resolver la cuestión de latencia como para aumentar la supervisión de las vulnerabilidades en materia de seguridad.
Workstation Design
El mal diseño de la interfaz ha causado muchos accidentes de drones. Los militares aprendieron la manera difícil que los controles confusos, las pantallas difíciles de leer y los modos de autonomía poco claros pueden tener consecuencias desastrosas. Dependiendo de la plataforma UAV específica, la FAA atribuyó entre el 20% y el 100% del Ejército y la Fuerza Aérea UAV accidentes causados por errores humanos hasta 2004 al mal diseño de interfaz.
UAV se bloquea (1986-2004) causada por problemas de factores humanos, incluyendo mala interfaz y diseño de procedimiento. Estas dos categorías no suman el 100% porque ambos factores podrían estar presentes en un accidente.
| Factores humanos | Diseño de interfaz | Procedimiento de diseño | |
|---|---|---|---|
| Ejército Hunter | 47% | 20% | 20% |
| Ejército Sombra | 21% | 80% | 40% |
| Depredador de la Fuerza Aérea | 67% | 38% | 75% |
| Air Force Global Hawk | 33% | 100% | 0% |
Muchos accidentes de aeronaves UAV han sido causados por sistemas de control humanos pobres. En un caso, se colocaron botones en los controladores de manera que era relativamente fácil accidentalmente apaga el motor en lugar de disparar un misil. Este mal diseño llevó a los accidentes donde los operadores remotos apagar involuntariamente el motor en lugar de lanzar un misil.
La industria autoconducir revela indicios de problemas comparables. Algunos transbordadores autónomos utilizan controladores de juego fuera de la plataforma, que, aunque económicos, nunca fueron diseñados para el control del vehículo. El uso fuera de la etiqueta de tales controladores puede conducir a confusión de modo, que fue un factor en un reciente accidente de transporte. Es necesario realizar pruebas significativas en el campo humano para evitar esos problemas, no sólo antes del despliegue del sistema, sino también después de mejoras importantes del software.
Carga de trabajo de operador
Las misiones aisladas suelen incluir largos períodos de vigilancia y reunión de información, ocasionalmente terminando con una huelga de misiles. Estas misiones pueden durar a veces durante días; por ejemplo, mientras que los militares esperan que la persona de interés salga de un edificio. Como resultado, los operadores remotos experimentan oscilaciones extremas en la carga de trabajo: a veces intensidad abrumadora, a veces aplastando el aburrimiento. Ambas condiciones pueden provocar errores.
Cuando los operadores teleoperan drones, la carga de trabajo es alta y la fatiga se puede establecer rápidamente. Pero cuando la autonomía a bordo maneja la mayor parte del trabajo, los operadores se pueden aburrir, complacer y menos alerta. Este patrón es bien documentado en investigación UAV.
Los operadores auto-conductores de coches probablemente están experimentando problemas similares para tareas que van desde interpretar signos confusos hasta ayudar a los coches escapar de los extremos muertos. En escenarios simples, los operadores pueden estar aburridos; en emergencias, como conducir a una zona de inundación o responder durante una salida de energía en toda la ciudad, pueden ser rápidamente abrumados.
Los militares han intentado durante años que una persona supervise a muchos drones a la vez, porque es mucho más rentable. Sin embargo, los costos de conmutación cognitiva (regaining awareness of a situation after switching control between drones) dan lugar a aumentos de la carga de trabajo y un alto estrés. Eso junto con interfaces cada vez más complejas y retrasos en la comunicación han hecho esto extremadamente difícil.
Las compañías auto-conductoras de automóviles probablemente se enfrentan a los mismos bloqueos de carreteras. Tendrán que modelar las cargas de trabajo de los operadores y poder predecir de forma fiable qué debe ser la plantilla y cuántos vehículos puede supervisar eficazmente una persona sola, especialmente durante las operaciones de emergencia. Si cada auto conducción resulta que necesita un humano dedicado a prestar mucha atención, tales operaciones ya no serían rentables.
Capacitación
Los primeros programas de drones carecían de requisitos formales de entrenamiento, con programas de capacitación diseñados por pilotos, para pilotos. Lamentablemente, la supervisión de un avión no tripulado es más similar al control del tráfico aéreo que en realidad volar un avión, por lo que los militares a menudo colocaron a los operadores de drones en funciones críticas con una preparación inadecuada. Esto causó muchos accidentes. Sólo años después se llevó a cabo la conducta militar un análisis adecuado de los conocimientos, habilidades y habilidades necesarios para realizar operaciones remotas seguras, y cambió su programa de entrenamiento.
Las empresas autónomas no comparten públicamente sus normas de capacitación y ningún reglamento rige actualmente las calificaciones de los operadores remotos. La seguridad en el camino depende en gran medida de estos operadores, pero muy poco se sabe de cómo son seleccionados o enseñados. Si los despachadores de aviación comercial están obligados a tener formación formal supervisada por la FAA, que son muy similares a los operadores remotos autoconductores, debemos mantener a las empresas autoconductoras comerciales a normas similares.
Contingency Planning
La aviación tiene protocolos sólidos para emergencias incluyendo procedimientos predefinidos para comunicaciones perdidas, estaciones de control terrestre de respaldo y comportamientos a bordo altamente confiables cuando la autonomía falla. En el ejército, los drones pueden volar a zonas seguras o aterrizar de forma autónoma si se pierde el contacto. Los sistemas están diseñados con amenazas de ciberseguridad, como la lucha por GPS, en mente.
Autoconducir coches parecen mucho menos preparados. El 2025 Salto de energía de San Francisco dejó vehículos Waymo congelados en carriles de tráfico, bloqueando a los primeros equipos y creando riesgos. Se supone que estos vehículos deben realizar maniobras de riesgo mínimo, como tirar al costado, pero muchos de ellos no lo hicieron. Esto sugiere lagunas en la planificación de contingencias y el diseño básico seguro de fallos.
La historia de las operaciones militares de drones ofrece lecciones cruciales para la industria automotora. Décadas de experiencia muestran que la supervisión remota exige una latencia extremadamente baja, estaciones de control cuidadosamente diseñadas, carga de trabajo de operador manejable, programas de capacitación rigurosos y bien diseñados y una fuerte planificación para imprevistos.
Las compañías auto-conducir parecen repetir muchos de los primeros errores cometidos en programas de drones. Las operaciones remotas se tratan como una característica de apoyo en lugar de un sistema de seguridad crítico para la misión. Pero mientras AI lucha con la incertidumbre, que será el caso para el futuro previsible, la supervisión humana remota seguirá siendo esencial. Los militares aprendieron estas lecciones a través de un juicio y un error dolorosos, sin embargo, la comunidad de autoconducir parece ignorarlas. La industria autoconducir tiene la oportunidad —y la responsabilidad— de aprender de nuestros errores en la configuración de combate antes de que dañe a los usuarios de carreteras en todas partes.
Un documento completo sobre este tema será presentado en el 2026 IEEE International Conference on Human-Machine Systems (ICHMS) reunión en Singapur en julio.
Fuente: Leer completo
Seguí las últimas noticias de robótica en español.

