Visión Artificial – Beneficios, componentes, técnicas e historia

visión de máquina

Un robot capaz de moverse por una fábrica, un sitio de construcción o una calle debe evitar obstáculos y personas con gran precisión. La visión artificial ayuda enormemente tanto a los robots como a las máquinas a adaptarse a un entorno cambiante, operando de forma segura alrededor de las personas y cambiando de tareas en función de la entrada visual.

Más allá de evitar obstáculos, la visión artificial abarca todas las aplicaciones industriales y no industriales en las que se utiliza una combinación de hardware como sensores (láser de un solo haz, LiDAR o sonar) y software para adquirir, procesar, analizar y medir diversas características de objetos para toma de decisiones rápida y en tiempo real, lo que garantiza una mayor productividad, velocidad, precisión y repetibilidad.

En una línea de producción, los sistemas de visión artificial creados con la óptica y la resolución de cámara adecuadas pueden inspeccionar cientos e incluso miles de piezas por minuto. Pueden examinar rápidamente detalles de objetos demasiado pequeños para ser vistos por el ojo humano. También aportan beneficios operativos y de seguridad adicionales al reducir la participación humana en el proceso de fabricación.

Beneficios clave de las aplicaciones de visión artificial

  • Mayor rendimiento y calidad en inspección, medición, calibrado y verificación de montaje
  • Mayor productividad en tareas repetitivas
  • Flexibilidad de producción en medición y aforo
  • Menos tiempo de inactividad de la máquina y reducción del tiempo de configuración
  • Información completa y control de procesos más estricto
  • Menores costos de equipo de capital
  • Menores costos de producción, detección temprana de fallas en el proceso y reducción de la tasa de desechos
  • Control de inventario y espacio reducido

Cómo funciona

Todos los enfoques de visión artificial están inspirados en el sistema de visión humano, basado en la extracción de información conceptual de imágenes bidimensionales. Tienen sistemas de captura basados ​​en imágenes 2D y algoritmos de visión por computadora que imitan aspectos de la percepción visual humana. Los humanos perciben el mundo circundante en 3D.

La capacidad de navegar y realizar tareas específicas depende de la reconstrucción de información 3D a partir de imágenes 2D que les permitan ubicarse en relación con los objetos circundantes. Posteriormente, esta información se combina con conocimientos previos para detectar e identificar objetos a su alrededor y comprender cómo interactúan.

Componentes

Los componentes principales de un sistema de visión artificial incluyen la iluminación, la lente, el sensor de imagen, el procesamiento de la visión y las comunicaciones. La luz ilumina la pieza a inspeccionar, permitiendo que sus características se destaquen para que la cámara pueda verlas. La lente captura la imagen y la presenta al sensor en forma de luz.

El sensor convierte esta luz en una imagen digital que se envía al procesador de video para su análisis. El procesamiento de la visión consta de algoritmos que examinan la imagen y extraen la información necesaria para la inspección y la toma de decisiones necesarias.

Tipos de sistemas de visión artificial

Independientemente de los sensores de imágenes utilizados, los enfoques más comunes para reconstruir información 3D se basan típicamente en técnicas de tiempo de vuelo. Las técnicas de tiempo de vuelo utilizan escáneres láser para estimar la distancia entre la fuente de luz y el objeto en función del tiempo necesario para que la luz alcance el objeto y regrese. Miden distancias en kilómetros y tienen una precisión de una escala milimétrica, ya que están limitados por la capacidad de medir el tiempo.

En términos generales, existen tres categorías de sistemas de visión artificial: 1D, 2D y 3D.

  • visión 1D – En lugar de mirar una imagen completa a la vez, los sistemas de visión 1D analizan una señal línea por línea. Por lo general, detectan y clasifican defectos en productos fabricados en un proceso continuo, como metales, plásticos, papel, láminas no tejidas o productos en rollo.
  • visión 2D – Los sistemas de visión 2D capturan una imagen de un objeto utilizando un mapa bidimensional de intensidad reflejada. Esto se puede expresar en coordenadas X e Y. Una vez capturada, la imagen normalmente se procesa comparando las variaciones de contraste.
  • visión 3D – Por lo general, los sistemas de visión artificial 3D incluyen varias cámaras o uno o más sensores de desplazamiento láser. En las aplicaciones de guiado robótico, una visión 3D multicámara proporciona al robot información sobre la orientación de la pieza. Estos sistemas incluyen múltiples cámaras montadas en diferentes ubicaciones y “triangulación” en el espacio 3D en una posición objetiva.

Historia de la visión artificial – Cronología

1914 – Lector óptico de caracteres (OCR): Goldberg inventó la máquina que podía leer caracteres y convertirlos en código telegráfico estándar.

1963 – Semiconductor de óxido de metal complementario (CMOS): Frank Wanlass, un ingeniero eléctrico estadounidense, CMOS patentado utilizado en circuitos lógicos digitales, circuitos analógicos y sensores de imagen.

1969 – Dispositivo de par de carga (CCD): CCD fue inventado en American Bell Laboratories por William Boyle y George E. Smith. CCD es la principal tecnología para imágenes digitales, ya que convierte los fotones entrantes en cargas de electrones.

1974 – Cámara con filtro Bayer: Bryce Bayer, un científico estadounidense que trabaja para Kodak, capturó información de colores vivos en una imagen digital.

1980 – Estéreo fotométrico: Woodham presentó un método para extraer superficies normales de varias imágenes en función de la suavidad restringida que plantea el modelo de iluminación.

1981 – Estéreo computacional: Grimson presentó la teoría de la visión estéreo computacional que es biológicamente plausible.

principios de la década de 1990 – Localización y mapeo simultáneos (SLAM): Leonard y Durrant-Whyte fueron pioneros en un método probabilístico para manejar la incertidumbre de las lecturas de sensores ruidosos y permite que los vehículos autónomos se localicen.

1997 – Robot nómada: Autónomo utilizado para buscar meteoritos antárticos basado en tecnologías avanzadas de percepción y navegación desarrolladas en la Universidad Carnegie Mellon.

1999 – Transformación de características invariantes de escala (SIFT): David Lowe patentó un algoritmo para detectar y describir características locales en imágenes. Las características SIFT son invariantes a los cambios uniformes de escala, orientación e iluminación.

2001 – Hawk-Eye: un sistema de visión en tiempo real con múltiples cámaras de alto rendimiento para proporcionar una representación 3D de la trayectoria de una pelota mediante triangulación.

2001 – Bolsa de palabras en visión por computadora: representación de características visuales como palabras para permitir la recuperación de información de procesamiento de lenguaje natural para aplicar en el reconocimiento de objetos y la clasificación de imágenes.

2002 – Estéreo activo con luz estructurada: Zhang introdujo la idea de usar patrones de luz para estimar una correspondencia sólida entre un par de imágenes.

2004 – Detección de rostros en tiempo real: se ha introducido un enfoque de aprendizaje automático de reconocimiento de objetos basado en ventanas deslizantes para una detección de rostros robusta.

2009 – Kinect: Microsoft anunció un dispositivo que usa tecnología estéreo computacional de luz estructurada para rastrear la postura del cuerpo. En 60 días, vendió 8 millones de unidades y reclamó el récord mundial Guinness del ‘dispositivo electrónico de consumo de venta más rápida’.

2012 – Redes neuronales profundas en la clasificación de imágenes: las DNN se entrenan con grandes conjuntos de datos de imágenes como ImageNet y actualmente han superado las capacidades humanas en el reconocimiento de objetos/rostros.

2017 – BWIBots: los robots de visión aprenden las preferencias de los humanos y cooperan trabajando codo con codo con los humanos.

Leave a Comment