Sie sind auf Seite 1von 21

CONCEPTOS GENERALES.

VISIÓN ARTIFICIAL

¿Qué es la visión artificial?

La visión artificial ayuda a resolver tareas industriales completas en forma confiable


y consistente.

Según la Asociación de Imágenes Automatizadas (AIA), la visión artificial incluye


todas las aplicaciones industriales y no industriales donde una combinación de
hardware y software brindan una guía operativa a dispositivos en la ejecución de
sus funciones en base a la captura y el procesamiento de imágenes. A pesar de que
la visión industrial por computadora utiliza muchos de los mismos algoritmos y
enfoques que las aplicaciones académicas-educativas y gubernamentales-
militares, sus limitaciones son diferentes.

Los sistemas de visión industrial necesitan mayor solidez, confiabilidad y estabilidad


en comparación con un sistema de visión académico/educativo y el costo suele ser
mucho menor que el de aplicaciones gubernamentales/militares. Por lo tanto, la
visión artificial industrial implica bajos costos, precisión aceptable, alta solidez, gran
confiabilidad, al igual que elevada estabilidad mecánica y térmica.

Los sistemas de visión artificial se basan en sensores digitales protegidos dentro de


cámaras industriales con ópticas especializadas en adquirir imágenes, para que el
hardware y el software puedan procesar, analizar y medir diferentes características
para tomar decisiones.

Por ejemplo, consideremos un sistema de inspección de nivel de llenado en una


cervecería (Figura 1.1). Cada botella de cerveza pasa por un sensor de inspección,
que activa un sistema de visión que proyecta una luz estroboscópica y toma una
foto de la botella. Luego de tomar la foto y almacenarla en la memoria, el software
de visión la procesa o analiza y emite una respuesta de aprobado/fallo en función
del nivel de llenado de la botella. Si el sistema detecta una botella llenada en forma
inadecuada (fallo), envía una señal a un desviador para rechazar la botella. Un
operario puede ver las botellas rechazadas y las estadísticas del proceso en curso
en una pantalla.

Fig. 1.1

Los sistemas de visión artificial también pueden realizar medidas de objetivo, como
determinar el espacio de una bujía o brindar información de ubicación que guía a un
robot para alinear piezas en un proceso de fabricación. La (Figura 1.2) muestra
ejemplos de cómo los sistemas de visión artificial se pueden utilizar para aprobar o
rechazar filtros de aceite (derecha) y medir el ancho de una ficha central de un
soporte (izquierda).

Fig. 1.2
La visión artificial la componen un conjunto de procesos destinados a realizar el
análisis de imágenes. Estos procesos son: captación de imágenes, memorización
de la información, procesado e interpretación de los resultados. (cognex, 2018)

Con la visión artificial se pueden:

 Automatizar tareas repetitivas de inspección realizadas por operadores.


 Realizar controles de calidad de productos que no era posible verificar por
métodos tradicionales.
 Realizar inspecciones de objetos sin contacto físico.
 Realizar la inspección del 100% de la producción (calidad total) a gran
velocidad.
 Reducir el tiempo de ciclo en procesos automatizados.
 Realizar inspecciones en procesos donde existe diversidad de piezas con
cambios frecuentes de producción.

Las principales aplicaciones de la visión artificial en la industria actual son:

 Identificación e inspección de objetos.


 Determinación de la posición de los objetos en el espacio.
 Establecimiento de relaciones espaciales entre varios objetos (guiado de
robots)
 Determinación de las coordenadas importantes de un objeto.
 Realización de mediciones angulares.
 Mediciones tridimensionales.
Métodos de captación de las imágenes.

Digital. La función obtenida tras el resultado de la medida o muestreos realizados


a intervalos de tiempo espaciados regularmente, siendo el valor de dicha función un
número positivo y entero. Los valores que esta función toma en cada punto
dependen del brillo que presenta en esos puntos la imagen original.

Píxel. Una imagen digital se considera como una cuadrícula. Cada elemento de esa
cuadrícula se llama Píxel (Picture element). La resolución estándar de una imagen
digital se puede considerar de 512x484 Pixel.

Nivel de grises. Cuando una imagen es digitalizada, la intensidad del brillo en la


escena original correspondiente a cada punto es cuantificada, dando lugar a un
número denominado “nivel de gris”.

Imagen binaria. Es aquella que sólo tiene dos niveles de gris: negro y blanco. Cada
píxel se convierte en negro o blanco en función del llamado nivel binario o UMBRAL.

Fig. 1.3

Escena. Es un área de memoria donde se guardan todos los parámetros referentes


a la inspección de un objeto en particular: Cámara utilizada, imágenes patrón
memorizadas, tolerancias, datos a visualizar, entradas y salidas de control, etc.

Window (ventana de medida). Es el área específica de la imagen recogida que se


quiere inspeccionar.
Fig. 1.4

Módulo de digitalización. Convierte la señal analógica proporcionada por la


cámara a una señal digital (para su posterior procesamiento).

Memoria de imagen. Almacena la señal procedente del módulo de digitalización.

Módulo de visualización. Convierte la señal digital residente en memoria, en señal


de vídeo analógica para poder ser visualizada en el monitor de TV.

Procesador de imagen. Procesa e interpreta las imágenes captadas por la cámara.


Módulo de entradas/salidas.

Gestiona la entrada de sincronismo de captación de imagen y las salidas de control


que actúan sobre dispositivos externos en función del resultado de la inspección.

Comunicaciones. Vía I/O, ethernet, RS232 (la más estándar).


La secuencia a seguir en el proceso operativo es:

Fig. 1.5

Captación. Obtención de la imagen visual del objeto a inspeccionar.

Instrucciones. Conjunto de operaciones a realizar para resolver el problema.

Procesado. Tratamiento de la imagen mediante las instrucciones aplicadas.

Actuación. Sobre el entorno (aparato, pieza, elemento) en función del resultado


obtenido. (etitudela, 2018)

Características principales en un sistema de visión


artificial.

 Analizan luz o color reflejado: Miden nivel de luz.


 Detectan bordes y formas.
 Analizan color.
 Actúan sin contacto: No deforman el material.
 Se puede analizar un objeto en movimiento.
 Son automáticos: Alta velocidad de procesado.
 Flexibles: basados en software.
 Entorno informático.
Componentes de la visión artificial.

El éxito de un sistema de visión depende del uso de componentes clave.

Los principales componentes de un sistema de visión artificial incluyen la


iluminación, los lentes, el sensor de imagen, el procesador de visión y las
comunicaciones. La iluminación ilumina la pieza a inspeccionar, al permitir que sus
características sobresalgan para que la cámara las pueda ver claramente. El lente
captura la imagen y se la presenta al sensor en forma de luz. El sensor en una
cámara de visión artificial convierte esta luz en una imagen digital que, luego, se
envía al procesador para ser analizada.

El procesador de visión consta de algoritmos que controlan la imagen y extraen la


información necesaria, ejecutan la inspección correspondiente y toman una
decisión. Finalmente, la comunicación se suele realizar mediante una señal de E/S
discreta o información enviada mediante una conexión serial a un dispositivo que
registra o usa información.

La mayoría de los componentes del hardware de visión artificial, como los módulos
de iluminación, los sensores y los procesadores, están disponibles como
componentes tomados fuera del estante (COTS, por su sigla en inglés). Los
sistemas de visión artificial se pueden armar con COTS o comprar como un sistema
integrado con todos los componentes en un único dispositivo.
Fig. 1.6

Iluminación.
La iluminación es una de las claves del éxito en los resultados de la visión artificial.
Los sistemas de visión artificial crean imágenes a través del análisis de la luz
reflejada por un objeto, no del análisis del propio objeto. Una técnica de iluminación
implica una fuente de luz y su ubicación con respecto a la pieza y la cámara. Una
técnica de iluminación particular puede mejorar una imagen de forma que se anulen
algunas características y se mejoren otras, silueteando una pieza que oscurece los
detalles superficiales para permitir la medición de sus bordes, por ejemplo.

 Retroiluminación. La retroiluminación mejora el contorno de un objeto para


aplicaciones que solo necesitan medidas externas o de bordes. La
retroiluminación ayuda a detectar formas y hace más fiables las medidas
dimensionales.
 Iluminación difusa axial. La iluminación difusa axial corta la luz en la
trayectoria óptica desde el lateral (coaxialmente). Un espejo
semitransparente iluminado desde el lateral proyecta la luz hacia abajo sobre
la pieza. La pieza refleja la luz hacia la cámara a través del espejo
semitransparente, con el resultado de una imagen homogénea e iluminada
uniformemente.

 Luz estructurada. La luz estructurada es la proyección de un patrón de luz


(plano, rejilla o forma más compleja) en un ángulo conocido sobre un objeto.
Puede ser muy útil para ofrecer inspecciones superficiales independientes
del contraste, adquirir información dimensional y calcular volúmenes.

 Iluminación de campo oscuro. La iluminación direccional revela con más


facilidad los defectos superficiales e incluye la iluminación de campo oscuro
y campo brillante. La iluminación de campo oscuro se prefiere generalmente
para aplicaciones de bajo contraste. En la iluminación de campo oscuro, la
luz especular se refleja alejándose de la cámara, y la luz difusa procedente
de la textura superficial y los cambios de elevación se refleja en la cámara.

 Iluminación de campo brillante. La iluminación de campo brillante es ideal


para aplicaciones de alto contraste. Sin embargo, las fuentes de luz muy
direccionales como el sodio a alta presión y los halógenos de cuarzo
pueden producir sombras nítidas y, por lo general, no aportan una
iluminación consistente en todo el campo de visión. Por consiguiente, las
reflexiones especulares y los efectos “hot spot” en superficies brillantes o
reflectantes pueden requerir una fuente de luz más difusa que proporcione
incluso iluminación en el campo brillante.

 Iluminación cenital difusa. La iluminación cenital difusa ofrece la


iluminación más uniforme de las características de interés, y puede
enmascarar irregularidades que no se consideren de interés y confundir la
escena.
Lentes.
La lente capta la imagen y la pasa al sensor de imagen de la cámara. La lente variará
según la calidad de la óptica y el precio; la lente utilizada determina la calidad y la
resolución de la imagen captada. Las cámaras de la mayoría de sistemas de visión
ofrecen dos tipos principales de lentes: intercambiables y fijas. Las lentes
intercambiables suelen ser de montura C o montura CS. La combinación correcta
de lente y ampliación adquirirá la mejor imagen posible. Una lente fija como parte
de un sistema de visión independiente utiliza normalmente autoenfoque, que bien
podría ser a través de una lente ajustada mecánicamente o de una lente líquida que
puede enfocar automáticamente la pieza. Las lentes de autoenfoque tienen
normalmente un campo de visión fijo a una distancia determinada.

Sensor de imagen.
La capacidad de la cámara de captar una imagen iluminada correctamente del
objeto inspeccionado no solo depende de la lente, sino también del sensor de
imagen que hay dentro de la cámara. Los sensores de imagen suelen usar un
dispositivo de carga acoplada (CCD) o la tecnología de semiconductor
complementario de óxido metálico (CMOS) para convertir la luz (fotones) en señales
eléctricas (electrones). Básicamente, el trabajo del sensor de imagen es captar luz
y convertirla en una imagen digital equilibrada en ruido, sensibilidad y margen
dinámico. La imagen es una colección de píxeles. Una baja iluminación produce
píxeles oscuros, mientras que una luz brillante crea píxeles brillantes. Es importante
asegurarse de que la cámara tiene la resolución de sensor correcta para la
aplicación. Cuanto mayor sea la resolución, más detalles tendrá la imagen y se
obtendrán las medidas más precisas. Dimensiones de la pieza, tolerancias de
inspección y demás parámetros dictarán la resolución necesaria.

Procesamiento de visión.
El procesamiento es el mecanismo de extracción de información de una imagen
digital y puede efectuarse externamente en un sistema basado en PC o
internamente en un sistema de visión independiente. El procesamiento se realiza
con software y consta de diversos pasos. En primer lugar, se adquiere una imagen
desde el sensor. En algunos casos, puede ser necesario un procesamiento previo
para optimizar la imagen y garantizar que destaquen todas las características
necesarias. A continuación, el software localiza las características específicas, hace
medidas y las compara con las especificaciones. Por último, se toma una decisión
y se comunican los resultados.
Aunque muchos componentes físicos de un sistema de visión artificial (como la
iluminación) ofrecen especificaciones comparables, los algoritmos del sistema de
visión marcan la diferencia y deberían ocupar el primer lugar en la lista de
componentes claves a evaluar cuando se comparan soluciones. Dependiendo del
sistema o aplicación específica, el software de visión configura los parámetros de la
cámara, toma la decisión “pasa-no pasa”, comunica con la planta de producción y
respalda el desarrollo de la interfaz hombre máquina (HMI).

Comunicaciones.
Como los sistemas de visión suelen utilizar diversos componentes comerciales,
estos elementos deben coordinarse y conectarse rápida y fácilmente a los demás
elementos de la máquina. Normalmente, la comunicación se lleva a cabo a través
de una señal de E/S discreta o los datos se envían a través de una conexión serie
hacia un dispositivo que registra la información o la utiliza. Los puntos de E/S
discretos se pueden conectar a un controlador lógico programable (PLC), que usará
dicha información para controlar una célula de trabajo o un indicador como una
columna luminosa o directamente un solenoide que podría usarse para activar un
mecanismo de rechazo.
La comunicación de datos a través de una conexión serie puede ser una salida serie
RS-232 convencional o Ethernet. Algunos sistemas utilizan un protocolo industrial
de nivel superior como Ethernet/IP, que puede conectarse a un dispositivo como un
monitor u otra interfaz de operador específica a la aplicación para un control y
supervisión cómodos del proceso.

Mantenimiento.

 Revisión completa de Hardware, conexión de cableado, estado de las luces,


ópticas, cámaras.
 Limpieza de ópticas y luces para eliminar la suciedad propia del ambiente
industrial.
 Chequeo de vibraciones.
 Actualización de software.

(bcnvision, 2013)

Aplicaciones de la visión artificial.

Normalmente, la tecnología de correspondencia de patrones representa el primer


paso en cualquier aplicación de visión artificial, ya sea la verificación del montaje
más simple o la selección/extracción de piezas amontonadas aleatoriamente en un
contenedor mediante un complejo sistema robótico 3D, para buscar el objeto o
característica de interés dentro del campo de visión de la cámara. La localización
del objeto de interés suele determinar el éxito o el fracaso de la aplicación. Si las
herramientas de software de correspondencia de patrones no pueden localizar con
precisión la pieza dentro de la imagen, no podrán guiar, identificar, inspeccionar,
contar ni medir la pieza. Aunque la búsqueda de una pieza pueda parecer sencillo,
las diferencias de apariencia en entornos de producción reales pueden hacer que el
próximo paso sea excesivamente difícil (Figura 3). A pesar de que los sistemas de
visión están entrenados para reconocer piezas basándose en patrones, incluso
los procesos controlados más ajustados permiten alguna variabilidad en la
apariencia de una pieza (Figura 4).

Para lograr unos resultados precisos, fiables y repetibles, las herramientas de


localización de piezas de un sistema de visión deben incluir suficiente inteligencia
para comparar de forma rápida y precisa los patrones de formación con los
objetos reales (correspondencia de patrones) que bajan por la línea de producción.
La localización de piezas es el primer paso crítico en las cuatro categorías
principales de aplicaciones de visión artificial: guiado, identificación, medición e
inspección.

Guiado.
El guiado se puede realizar por varias razones. En primer lugar, los sistemas de
visión artificial pueden localizar la posición y orientación de una pieza, compararla
con una tolerancia especificada, y garantizar que está en el ángulo correcto para
verificar el montaje apropiado. A continuación, el guiado se puede usar para notificar
la localización y orientación de una pieza en el espacio 2D o 3D a un robot o unidad
de control de una máquina, para que el robot pueda localizar la pieza o la máquina
pueda alinearla. El guiado por visión artificial permite obtener una velocidad y una
precisión muy superiores que el posicionamiento manual en tareas como la
disposición de piezas dentro o fuera de palés, el embalaje de piezas al salir de una
cinta transportadora, la búsqueda y alineación de piezas para el montaje con otros
componentes, la colocación de piezas en un estante, o la retirada de piezas de los
almacenes.

El guiado también puede utilizarse para la alineación de otras herramientas de visión


artificial. Se trata de una característica muy potente de la visión artificial, puesto que
la presentación de las piezas a la cámara se puede producir en orientaciones
desconocidas durante la producción. Al localizar la pieza y alinear las demás
herramientas de visión artificial respecto a ella, la visión artificial permite el
posicionamiento/sujeción automática de las herramientas. Esto implica la
localización de las características claves de una pieza para permitir posicionar con
precisión un calibre, nivel, perfil u otras herramientas de software de visión para que
puedan interactuar correctamente con la pieza. Este enfoque permite a los
fabricantes desarrollar diversos productos en la misma línea de producción y reduce
la necesidad de herramientas de hardware costosas para mantener la posición de
la pieza durante la inspección.

Fig. 5 imágenes usadas en el guiado

A veces, el guiado requiere la correspondencia de patrones geométricos. Las


herramientas de correspondencia de patrones deben tolerar grandes variaciones en
el contraste e iluminación, así como cambios de escala, rotación y otros factores
mientras encuentran la pieza de manera fiable en todo momento. Eso es así porque
la información de localización obtenida por la correspondencia de patrones permite
la alineación de otras herramientas de software de visión artificial.

Fig. 6 La correspondencia de patrones.

Identificación.

Un sistema de visión artificial para identificación y reconocimiento de piezas lee


códigos de barras (1-D), códigos de matrices de datos (2-D), marcajes directos en
piezas (DPM) y caracteres impresos en piezas, etiquetas y paquetes. Un sistema
de reconocimiento óptico de caracteres (OCR) lee caracteres alfanuméricos sin
conocimiento previo, mientras que un sistema de comprobación óptica de
caracteres (OCV) confirma la presencia de una cadena de caracteres. Además, los
sistemas de visión artificial pueden identificar piezas mediante la localización de un
patrón único o identificar elementos según su color, forma o tamaño.

Las aplicaciones DPM marcan un código o una cadena de caracteres directamente


en la pieza. Fabricantes de todas las industrias suelen usar esta técnica para
detectar errores, habilitar estrategias eficaces de contención, supervisar el control
de procesos y las métricas de control de calidad y cuantificar áreas problemáticas
en una planta como cuellos de botella. La trazabilidad mediante el marcaje directo
en las piezas mejora el seguimiento de los activos y la verificación de autenticidad
de las piezas. Además, proporciona datos a nivel unitario para impulsar un soporte
técnico y un servicio de reparación en garantía superior al documentar la genealogía
de las piezas en un submódulo que prepara el producto terminado.

Fig.7 Lectura de código de barras sencillas a OCR.

Medición.

Un sistema de visión artificial para medición calcula las distancias entre dos o más
puntos o ubicaciones geométricas de un objeto y determina si esas medidas
cumplen las especificaciones. Si no, el sistema de visión envía una señal de fallo a
la unidad de control de la máquina, activando un mecanismo de rechazo que
expulsa el objeto de la línea.

En la práctica, una cámara fija capta imágenes de las piezas cuando pasan por su
campo de visión y el sistema utiliza software para calcular las distancias entre
distintos puntos de la imagen. Como muchos sistemas de visión artificial pueden
medir características de un objeto con una precisión de hasta 0,0254 milímetros,
abordan una serie de aplicaciones que tradicionalmente se han gestionado a través
de la medición por contacto.
Fig.8 Medición de tolerancias con una precisión de hasta 0,0254 mm.

Inspección.

Un sistema de visión artificial para inspección detecta defectos, contaminantes,


imperfecciones funcionales y otras irregularidades en productos manufacturados.
Como ejemplos cabe citar la inspección de tabletas de medicamentos en busca de
taras, de pantallas para verificar los iconos o confirmar la presencia de píxeles, o de
pantallas táctiles para medir el nivel de contraste de fondo. La visión artificial
también puede inspeccionar la integridad de los productos, como garantizar la
coincidencia entre producto y paquete en las industrias de alimentación y
farmacéutica, y la comprobación de precintos de seguridad, tapones y anillas en las
botellas.

Fig.9 Detección de defecto o irregularidades. (cognex, 2018)


Limitaciones del sistema.

Falta de precisión que provoca un efecto de trayectorias temblorosas en la captura


de forma global.

Detección de falsos positivos considerados como detección del patrón en


movimiento pero que no corresponden al patrón real.

Error en el ajuste heurístico entre las coordenadas que tienen como referencia el
cuadro de la imagen y el punto de referencia de la posición de la cámara.

La iluminación es crucial en el procesamiento de imágenes, y aunque se homologó


una fuente de luz laparoscópica la aplicación puede estar comprometida al momento
de una cirugía real.

Compatibilidad con diferentes dispositivos.

Cualquier tipo de PLC o dispositivo fieldbus.

Cognex Connect incluye compatibilidad con los protocolos de comunicación


industrial Ethernet y Fieldbus de estándar abierto más utilizados para lograr
conexiones fluidas con los PLC y una amplia gama de dispositivos de
automatización de Mitsubishi, Rockwell, Siemens y otros fabricantes. Se disponen
de entradas/salidas discretas y protocolos seriales para compatibilizar PLC antiguos
y dispositivos sin conectividad de red.

Fig.10 Dispositivos field-bus.


Cualquier robot.

Cognex Connect garantiza que los sistemas de visión In-Sight se pueden comunicar
con cualquier marca o modelo de robot que utilice en su planta. Se dispone de
controladores preconfigurados, plantillas listas para usar y códigos de muestra para
robots de ABB, Denso, Fanuc, Kawasaki, Kuka, Motoman y Staubli. También es
compatible la comunicación con robots de Mitsubishi, Adept, Epson y de muchos
otros fabricantes.

Cualquier PC o HMI.

La compatibilidad con los protocolos TCP/IP Ethernet estándar y una sencilla


interfaz de configuración de apuntar y hacer clic incluida en cada sistema In-Sight
facilitan la configuración y el mantenimiento de todos sus sistemas de visión desde
cualquier PC de la red y el archivo de datos e imágenes en un servidor de archivos.

Si precisa integrar imágenes de inspección, datos de calidad y controles interactivos


en su propia interfaz de operador, Cognex Connect le ofrece un conjunto de
opciones de visualización:

Fig.11 Software compatibilidad,

(cognex, 2018)
Bibliografía.
http://www.cognex.com/what-is/machine-vision/what-is-machine-
vision/?langtype=1034&locale=mx
http://www.etitudela.com/celula/downloads/visionartificial.pdf
http://www.bcnvision.es/servicios/mantenimiento
http://www.cognex.com/ProductsServices/VisionSystems/?id=1504&langtype=103
4

Das könnte Ihnen auch gefallen