
La teleoperación de vehículos es una capacidad que permite a un operador humano en una estación de control controlar y operar un vehículo en una ubicación remota a través de comandos a través de dispositivos de entrada/control, recibiendo información de las pantallas.
El operador y el vehículo están separados por una barrera (entorno, distancia, tiempo, etc.) e intercambian información a través de un enlace de comunicación. Estos vehículos generalmente están equipados con sensores, actuadores y, a menudo, cierto nivel de autonomía.
La teleoperación de vehículos se utiliza cuando es necesario operar en un entorno peligroso o de difícil acceso y cuando la tarea principal es la exploración, la observación o el reconocimiento. También se usa a menudo para reducir los costos de la misión y evitar la pérdida de vidas.
Las aplicaciones de teleoperación de vehículos incluyen reconocimiento, vigilancia, adquisición de objetivos (RSTA), exploración, minería remota, inspección, seguridad de instalaciones y entretenimiento.
La teleoperación de vehículos tiene varias características que la distinguen del control remoto simple (es decir, control de radio con línea de visión) y otros tipos de teleoperación (por ejemplo, telemanipulación).
- En primer lugar, la teleoperación de vehículos exige una navegación fiable. Dado que los vehículos a menudo se despliegan en entornos desconocidos o no estructurados, los problemas de navegación pueden provocar fallas o pérdidas del sistema.
- En segundo lugar, la teleoperación de vehículos requiere una generación eficiente de comandos de movimiento. En muchos casos, el desempeño de la tarea está directamente relacionado con qué tan bien se mueve un vehículo.
- Finalmente, la teleoperación del vehículo requiere una interpretación precisa de los datos del sensor. Teniendo en cuenta que la mayoría de las aplicaciones se centran en la exploración, el reconocimiento o la observación, está claro que malinterpretar o juzgar mal el entorno remoto causará dificultades.
La teleoperación de vehículos se ocupa de tres desafíos básicos: averiguar dónde está el vehículo y en qué estado se encuentra, determinar a dónde debe ir y moverlo allí evitando obstáculos y colisiones.
Además, existen varios desafíos específicos de la tarea, como la observación, el mapeo del entorno y la implementación de la carga útil. Estos desafíos pueden ser difíciles de resolver, particularmente si el vehículo opera en un entorno peligroso con un enlace de comunicación limitado (bajo ancho de banda y/o alta demora). La dificultad aumenta cuando se agregan factores adicionales como la variación del operador (entrenamiento, habilidad, etc.), múltiples vehículos y peligros en movimiento (o maliciosos).
Convencionalmente, se utilizan tres modelos de sistemas para operar vehículos: control directo, control de supervisión y control totalmente autónomo.
1. Control directo
El modelo de control directo se ha utilizado ampliamente desde principios del siglo XX. Tradicionalmente, es el método más común para realizar vehículos. El operador opera directamente el vehículo remoto utilizando controladores manuales (por ejemplo, joysticks de 3 ejes) mientras monitorea el video (de las cámaras del vehículo o del lugar de trabajo) en una o más pantallas.
Una gran cantidad de vehículos, incluidos aviones (RPV, UAV), transporte terrestre (UGV) y sumergibles (ROV), se han operado con control directo. De hecho, para muchos de estos vehículos, este enfoque sigue siendo de última generación.
Se utiliza el control directo porque es barato y fácil de implementar, al menos en comparación con los otros modelos de sistemas. Con el control directo, el ser humano cierra el ciclo de control. Si bien el robot (o la interfaz) puede ayudar en cualquiera de las rutas de detección o efectoras (o en ambas), la responsabilidad principal de percibir el entorno remoto, tomar decisiones y ejecutar el plan recae en el ser humano.
Es bien sabido que el control directo puede ser problemático. Debido a que todas las decisiones de control dependen del ser humano, el rendimiento del sistema está directamente relacionado con las capacidades humanas. Muchos factores, incluidos los límites sensoriomotores, el conocimiento, la habilidad, la capacitación, etc., juegan un papel en el funcionamiento del sistema. Otros factores, como el diseño de la estación de control y el ancho de banda de comunicación, también pueden influir significativamente en la eficacia de un sistema de control directo.
2. Control de Supervisión
El control de supervisión, originalmente llamado metacontrol, se desarrolló en la década de 1960 para caracterizar a los operadores que funcionan en bucles de control discontinuos. El concepto de control de supervisión apareció como parte de la investigación sobre cómo los operadores terrestres podrían teleoperar vehículos lunares. El término control de supervisión se deriva de la analogía entre la interacción de un supervisor con el personal subordinado.
Para efectuar el control de supervisión, el operador divide un problema en una secuencia de subtareas, que luego el robot ejecuta por sí solo. Hasta la fecha, la mayor parte de la investigación en control de supervisión se ha centrado en el control de procesos y la telemanipulación. Con el control de supervisión, el ser humano interactúa con el robot a través de la interfaz de usuario.
Dado un objetivo a alcanzar, el robot realiza una fracción menor o mayor de control, dependiendo de su nivel de autonomía. Cuanto más competente sea un robot, más tiempo operará de forma autónoma (es decir, excluyendo al ser humano). Una vez que el ser humano le ha dado el control al robot, supervisa la ejecución de la tarea mediante el control de las pantallas de la interfaz. Estas pantallas generalmente muestran datos de sensores procesados por uno o más módulos de percepción de robots.
En el modelo de sistema de control de supervisión, el ser humano no está restringido solo a un rol de supervisión. En cambio, puede controlar intermitentemente el robot cerrando un ciclo de comando (sensor-percepción-pantalla-control-cognición-actuador), o puede controlar algunas variables mientras deja las otras al robot. El primer enfoque se conoce como «control negociado» y el segundo como «control compartido». Con cualquiera de los dos enfoques, el ser humano puede optar por interactuar con el robot en diferentes niveles. Por ejemplo, suponga que el robot opera con un controlador jerárquico. En ese caso, el ser humano puede cerrar el ciclo de control en un nivel simbólico alto (p. ej., la capa superior de percepción-cognición del robot o en un nivel inferior (p. ej., más cerca de los actuadores).
Aunque el control de supervisión se ha estudiado desde la década de 1960, sigue habiendo numerosos temas abiertos. En primer lugar, varios investigadores han cuestionado si la eliminación del operador de la participación activa en el circuito de control dificulta la detección y el diagnóstico de anomalías. Además, no está claro cómo modelar la competencia de un robot (su capacidad para actuar «correctamente» en diversas situaciones) para facilitar la capacitación del operador y la partición de tareas. Por último, existen incertidumbres relacionadas con el intercambio/intercambio de control y el cambio de contexto, principalmente cuando un operador controla varios vehículos.
3. Control completamente autónomo
El control completamente autónomo describe sistemas de robots que dependen de humanos para establecer objetivos de alto nivel o para especificar una estrategia de alto nivel, pero luego se ejecutan independientemente del humano. El control completamente autónomo es algo inapropiado porque rara vez, si es que alguna vez, es completamente automático.
Con este modelo de sistema, el humano asigna objetivos o tareas de alto nivel al robot, que los logra de forma independiente. La planificación se puede realizar antes de la ejecución, intercalada con la ejecución o de forma continua durante la ejecución. Desde los días del carro de Stanford y Shakey de SRI, el control completamente autónomo ha sido lo que la investigación en “robots móviles autónomos” ha aspirado a lograr.
En cierto sentido, el control totalmente autónomo es solo un control de supervisión llevado a su extremo: el ser humano da un objetivo abstracto de alto nivel, que luego el robot logra por sí mismo. La diferencia entre el control totalmente autónomo y el control de supervisión es la naturaleza de la meta.
En casi todos los sistemas de control de supervisión, los objetivos son limitados (p. ej., «conducir hasta el punto X sin golpear nada»), y la mayor parte de la planificación de tareas la realiza el ser humano. Con un control totalmente autónomo, los objetivos tienden a ser más abstractos (p. ej., «cortar el heno en este campo»), y el robot tiene más responsabilidad para decidir cómo se realizará la tarea.
Con un control totalmente autónomo, al igual que con el control de supervisión, el ser humano interactúa con el robot a través de la interfaz de usuario. Una vez que el ser humano ha especificado un objetivo a alcanzar, el robot opera de forma independiente (es decir, cierra todos los lazos de control). A medida que el robot opera, la función principal del ser humano es monitorear la ejecución a través de las pantallas de la interfaz.
Limitaciones
Aunque estos tres modelos de sistemas se han utilizado con éxito, todos tienen limitaciones. En el control directo, las tareas solo se pueden realizar mientras el humano permanece en el circuito. Además, el rendimiento está limitado por las capacidades y la carga de trabajo del operador.
Con un control de supervisión y totalmente autónomo, se producirá una falla siempre que el ser humano no reconozca o no pueda reconocer que el robot no es adecuado para la situación. En particular, cada vez que el humano ordena al robot que logre un objetivo, el robot se ve obligado a tomar decisiones por sí mismo. En consecuencia, el robot siempre fallará cuando alguna parte de su autonomía (por ejemplo, la planificación) sea inadecuada o inapropiada para realizar la tarea.
Otra limitación es que ninguno de los modelos puede adaptarse a una amplia gama de usuarios. El control directo, por ejemplo, generalmente exige usuarios expertos porque la dificultad y el riesgo son grandes. Las excepciones son cuando el vehículo está operando en un ambiente benigno o si existen salvaguardas sustanciales. Con los otros modelos, la variación del operador tiene menos impacto porque el robot puede ejecutarse de forma autónoma. Sin embargo, es difícil ajustar el nivel de autonomía para reflejar las necesidades del usuario o compensar las deficiencias del usuario.
Un problema adicional es que estos modelos dependen de la capacidad humana para comprender el entorno y el proceso remotos. Para que el sistema funcione, el ser humano debe mantener con precisión la conciencia de la situación, determinar qué está haciendo el robot y reconocer cuándo tiene problemas. Por lo tanto, si la interfaz de usuario es deficiente o el ser humano construye un modelo mental incorrecto de lo que está sucediendo, es probable que se produzcan daños o pérdidas en el sistema.