Vision De Maquina Y Software
Enviado por mattjc6 • 13 de Octubre de 2013 • 1.545 Palabras (7 Páginas) • 477 Visitas
4.2.4 Visión de Máquina y Software
Los sensores proporcionan al robot información sobre su entorno, que él puede usar para guiar sus acciones. La visión es un sentido muy importante porque puede dar información de una resolución relativamente alta a distancias relativamente grandes. Se han desarrollado muchos tipos de sistemas de visión para robots, los cuales entran en uso práctico cada vez con más frecuencia.
Los sistemas de visión para máquinas comenzaron a aparecer en 1950, asociados con aplicaciones no robóticas, como lectura de documentos, conteo de especímenes biológicos en la sangre, y reconocimiento aerofotográfico de aplicación militar. En el campo propiamente robótico el desarrolló comenzó a mediados de 1960, con el establecimiento de laboratorios de inteligencia artificial en instituciones como en la U. de Stanford y el Stanford Research Institute. Para 1980 muchas compañías estaban desarrollando sistemas de visión para robots y para otras aplicaciones industriales.
Los sistemas de visión industrial miden, guían, inspeccionan, cuentan e identifican productos en las líneas de producción más rápidas.
Los sistemas de visión le ayudan a optimizar sus procesos de producción, relacionando la captura y procesando de imágenes a alta velocidad, para comparar imágenes que ayuden a inspeccionar los productos a través de un proceso de fabricación, ayudando a las empresas a reducir los desechos y duplicación del trabajo.
El objetivo general de una máquina vidente es derivar una descripción de una escena, analizando una o más imágenes de dicha escena. En algunas situaciones la escena misma es básicamente bidimensional. Por ejemplo si el robot trabaja con piezas planas sobre una superficie plana, o si busca perforaciones en tal superficie. La visión para situaciones bidimensionales es más fácil que para las tridimensionales, y, como era natural, los primeros trabajos sobre máquinas videntes se hicieron en esa modalidad.
Proceso de visión de máquina y software
Para que un robot reconozca partes, perforaciones, etc. en una superficie, y en general objetos, Primero debe distinguir los objetos de interés del resto de la superficie. En otras palabras, debe ser capaz de "destacar" partes de la imagen que corresponden a esos objetos. Este proceso de extraer subconjuntos de una imagen que corresponden a partes relevantes de la escena se denomina SEGMENTACION.
• Segmentación
Una IMAGEN DIGITAL es una matriz de números que representan valores de iluminación en puntos regularmente espaciados de la imagen de una escena. Los elementos de más bajo nivel de tal imagen se llaman PIXELs (contracción de "Picture Element"), y sus valores se denominan NIVELES DE GRIS (el color casi no ha sido utilizado aún en los sitemas de visión robóticos). La efectividad de una técnica de Segmentación depende de las propiedades de la clase de imágenes a que se aplique.
• Establecimiento de umbrales
Si el brillo de un objeto difiere significativamente del de su entorno, origina en la imagen un conjunto de pixels con Niveles de Gris muy diferentes de los Niveles de los pixels circundantes. (A menudo pueden producirse grandes diferencias de brillo entre un objeto y su entorno controlando el ángulo en que incide la luz). Los subconjuntos de imagen con esa característica pueden extraerse de la imagen estableciendo un UMBRAL para los Niveles de Gris, o sea clasificando cada pixel como "claro" u "oscuro" dependiendo de si su Nivel de Gris es inferior o superior al umbral.
• Análisis de textura
Si un objeto no presenta un brillo uniforme, sino que muestra cierta "trama", ni el umbral ni la detección de bordes son útiles para extraerlo, ya que sus pixels no poseen Niveles de Gris en un rango estrecho y presenta muchos "bordes" internos. No obstante, tal objeto puede ser distinguible de su vecindad basándonos en su trama o patrón característico de Niveles de Gris o TEXTURA VISUAL.
Las Texturas Visuales se pueden caracterizar por conjuntos de propiedades locales de sus pixels, o sea por el hecho de que en una región texturada, tienden a presentarse ciertos patrones locales de Niveles de Gris en la vecindad de cada pixel. Cada pixel puede caracterizarse por un conjunto de números calculando para él un conjunto de propiedades relacionadas con la textura, para segmentar la imagen en regiones de texturas diferentes. Este procedimiento tiene cierta analogía al tratamiento de imágenes a color que se mencionó antes, pero como las propiedades texturales tienden a ser más variables que los colores, debe obtenerse primero cierto promedio local para hacer más compactos los cúmulos correspondientes a cada región. Similarmente, calculando los valores promedios de las propiedades locales y tomando luego diferencias de esos promedios se puede calcular un "gradiente de textura" en cada pixel y usarlo para detectar bordes entre regiones de diferentes texturas.
• Conectividad y bordes
Si una escena contiene varios objetos sobre un fondo, la segmentación de su imagen dá el conjunto de pixels pertenecientes a todos los objetos; la segmentación no ha de distinguir los objetos entre si. Para trabajar con cada objeto es necesario "etiquetar" o marcar los pixels de los objetos,
...