Adquisición de imágenes
Enviado por Leonardo Penagos • 12 de Diciembre de 2018 • Ensayo • 5.721 Palabras (23 Páginas) • 106 Visitas
Adquisición de imágenes
La información visual se convierte en señales eléctricas por los sensores visuales cuando estas señales eléctricas se muestrean especialmente, y se cuantifican en amplitud, obtendremos de ellas una imagen digital. Los dispositivos de tratamiento de imagen de estado sólido nos ofrecen gran número de ventaja sobre las cámaras de tubo, como son su menor peso, menor tamaño, más larga vida y menor consumo de potencia. Así, al explorar el haz de electrones la superficie de la capa del objetivo, la capa fotosensible se convierte en un condensador con carga negativa en superficie mas interna y carga positiva en el lado opuesto. Esta corriente es proporcional al número de electrones reemplazados y, en consecuencia, a la intensidad de luz para una localización particular del haz de exploración. Esta variación en corriente durante el movimiento de exploración del haz de electrones produce, después de ser acondicionadas por la circuitería de la cámara de una señal de video proporcional a la imagen de entrada.
Si las líneas fueran exploradas secuencialmente y el resultado mostrado en un monitor de televisión, la imagen podría parpadear perceptiblemente. Así por ejemplo, un sistema muy difundido de exploración en visión artificial y procesamiento de imagen. A la hora de tratar los dispositivos ccd, es conveniente dividir los sensores en dos categorías: sensor ccd de exploración de líneas es una hileras de elementos de silicio llamado photosites. De las cámaras de exploración de línea se obtendrán obviamente una línea por cada imagen de entrad. El movimiento de un objeto en la dirección perpendicular al sensor produce una imagen bidimensional. La resolución de los sensores exploración de líneas normales oscilante entre los 256 y los 2.048 elementos. La resolución de los sensores de áreas varían entre 32*32 elemento para un sensor de baja resolución y 256*256 elementos para un sensor de resolución media. Este ultimo termino es aplicable a las imágenes monocromas y refleja el hecho de que estas imágenes varían del negro al blanco en todo del gris. Esta matriz, llamada imagen digital, puede ser representada como
Donde x e y son ahora variable discreta : x= 0,1,2…, n – 1: y 0,1,2…, m – 1. Cada elemento de la matriz de llama elemento de imagen o pixel. La figura7.4b a e nos muestra la misma imagen, pero tomando n= 256,128,64y 32. En todo los casos se mantiene el numero de niveles de intensidad en 256.como el área de pantalla usada para cada imagen es la misma (512*512) punto de pantalla, los pixel de la imágenes de más baja resolución están duplicados con objetos de llenar completamente el espacio de pantalla. Es de destacar que la imagen de 256*256* es razonablemente parecida a la figura 7.4ª pero la calidad de la imagen se deteriora rápidamente para otros valores de n .
La imagen de 32 niveles muestra una ligera degradación (particularmente en las zonas con poca variación de intensidad) debido al uso de demasiado pocos niveles para representar cada pixel. Como base de comparación, los requerimientos para obtener una calidad comparable a la de las imágenes de la televisión monocroma son del orden de 512 *512 pixels con 128 niveles de intensidad.
Técnicas de iluminación
La iluminación de la imagen es un factor importante que suele afectar a la complejidad del algoritmo de visión. Esta línea seria interrumpida por objetos que atravesase simultáneamente ambos planos de luz. Esta técnica se adapta muy bien para objetos que se muevan ambos planos de luz. Para superficie sin desperfectos se difumina un poco de luz en dirección hacia la cámara. Se muestra un ejemplo de la 7.11
Geometría de formación de imágenes
En esta sección veremos alguna trasformaciones importantes usadas en el tratamiento de imágenes, obtendremos un modelo de cámara y veremos el problema de la formación de la imagen en estéreo con algún detalle. Alguna de las trasformaciones de imágenes en estéreo con algún detalle.
7.4.1 Algunas transformaciones básicas.
Traslación. La forma más simple de estas transformaciones se da para la rotación de un punto respecto al eje de coordenadas. Según se observa la figura 7.12, la rotación de un punto respecto al eje de coordenadas Z de un ángulo θ se representa usando la transformación
Cos θ sen θ 0 0
Rθ = -sen θ cos θ 0 0 (7.4-9)
0 0 1 0
0 0 0 1
El ángulo de rotación θ se mide en el sentido de las agujas del reloj observando el origen desde un punto situado en el semieje +Z. obsérvese que esta transformación afecta únicamente a los valores de las coordenadas X e Y.
La rotación de un punto respecto al eje X en un ángulo α se presenta usando la transformación.
Tomando como referencia la ecuación (7.4-5), sean V1, V2,…, Vm las coordenadas de m puntos.
7.4.2 Transformaciones de perspectiva
Una transformación de perspectiva (también llamada transformación de imagen) proyecta puntos tridimensionales sobre un plano. En esta sección se supone que el sistema de coordenadas de la cámara está alineado con el sistema de coordenadas absoluto (X, Y, Z) . La conversión de coordenadas homogéneas a coordenadas cartesianas se realiza, obviamente dividiendo las 3 primeras coordenadas homogéneas por la cuarta. Un punto en los sistemas absoluto de coordenadas cartesianas puede expresarse como un vector.
Así las coordenadas cartesianas de cualquier punto en el sistemas de coordenadas de la cámara vienen dadas en forma vectorial por
Los dos primeros componentes de c son las coordenadas (x,y) en el plano de la imagen de un punto tridimensional (X,Y,Z) proyectado, como se vio en las ecuaciones (7.4-18)(7.4-19). La transformación de perspectiva inversa proporciona los puntos de la imagen al espacio tridimensional. La ecuación de esta recta en el sistema de coordenadas absoluto se obtiene de las ecuaciones (7.14-18)(7.4-19) esto es,
X= x0 (λ-Z) (7.4-30)
λ
Y= y0 (λ-Z) (7.4-31)
λ
estas ecuaciones muestran que, al menos que conozcamos algo sobre el punto tridimensional que genero a un punto de imagen dado (por ejemplo, su coordenada Z), no podemos recuperar completamente el punto tridimensional de su imagen. Las ecuaciones (7.4-23) y (7.4-24) caracterizan la información de una imagen usando la proyección de puntos tridimensionales sobre un plano de imagen. Esta figura muestra también el sistema de coordenadas de la cámara y los puntos de la imagen (c). La rotación se hace respecto al eje x y se lleva a cabo aplicando la matriz de transformación Rα dada en la ecuación (7.4-10) a todos los puntos (incluido el punto RθGwh).
...