ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Adquisición de imágenes


Enviado por   •  12 de Diciembre de 2018  •  Ensayo  •  5.721 Palabras (23 Páginas)  •  106 Visitas

Página 1 de 23

Adquisición de imágenes

 La  información visual  se  convierte  en señales eléctricas por los sensores visuales cuando estas señales  eléctricas se muestrean  especialmente, y se cuantifican en amplitud, obtendremos de ellas  una imagen digital. Los dispositivos de tratamiento de imagen  de estado sólido nos ofrecen  gran número de ventaja sobre las cámaras de tubo,  como son su menor peso, menor  tamaño, más larga vida  y menor  consumo de potencia. Así, al explorar el haz de electrones  la superficie  de la capa del objetivo, la capa fotosensible se convierte en un condensador con carga negativa en superficie mas interna  y carga positiva en el lado opuesto. Esta corriente es proporcional al número de electrones  reemplazados y, en consecuencia, a la intensidad de luz para una localización  particular del haz de exploración. Esta  variación  en corriente durante el movimiento de exploración del haz de electrones produce, después  de ser acondicionadas por la circuitería de la cámara de una señal de video proporcional a la imagen de entrada.

Si las líneas fueran exploradas secuencialmente y el resultado mostrado  en un monitor de televisión, la imagen  podría parpadear perceptiblemente. Así  por ejemplo, un sistema  muy difundido de exploración  en visión  artificial y procesamiento de imagen. A la hora  de tratar los dispositivos  ccd, es conveniente dividir los sensores en dos categorías: sensor ccd  de exploración  de líneas  es una hileras de elementos de silicio llamado photosites. De las cámaras de exploración  de línea se obtendrán  obviamente  una línea por cada imagen de entrad. El movimiento de un objeto en la dirección perpendicular al sensor produce una imagen  bidimensional. La resolución de los sensores exploración  de líneas normales oscilante  entre los 256 y los 2.048 elementos. La resolución de  los sensores de áreas varían entre 32*32 elemento para un sensor de baja resolución y 256*256 elementos para un sensor de resolución  media. Este ultimo termino es aplicable a las imágenes monocromas y refleja el hecho de que  estas imágenes varían del negro al blanco en todo del gris. Esta matriz, llamada imagen digital, puede ser representada como

Donde x e  y son ahora variable  discreta : x= 0,1,2…, n – 1: y 0,1,2…, m – 1. Cada elemento de la matriz de llama elemento de imagen o pixel. La figura7.4b a e  nos muestra  la misma  imagen, pero tomando n= 256,128,64y 32. En todo  los casos se mantiene el numero de niveles de intensidad en 256.como el área de pantalla usada para cada imagen  es  la misma (512*512) punto  de pantalla, los pixel de la imágenes de más baja resolución  están  duplicados  con objetos de llenar completamente  el espacio de pantalla. Es de  destacar que la imagen de 256*256* es razonablemente  parecida a la figura 7.4ª pero  la calidad de la imagen se deteriora rápidamente  para otros valores de n .

 La imagen  de 32 niveles  muestra  una ligera  degradación (particularmente  en las zonas  con poca variación  de intensidad) debido al uso  de demasiado pocos niveles para representar cada pixel. Como base de comparación, los requerimientos para obtener una calidad comparable  a la de  las imágenes de la televisión monocroma son  del orden  de 512 *512 pixels con  128  niveles  de intensidad.

Técnicas de iluminación

 La iluminación  de la imagen es un factor importante que suele afectar a la complejidad del algoritmo de visión. Esta línea seria interrumpida por objetos que atravesase simultáneamente ambos planos de luz. Esta técnica se adapta muy bien para objetos que se muevan ambos planos de luz. Para superficie sin desperfectos se difumina un poco  de luz en dirección hacia la cámara. Se muestra un ejemplo de la 7.11

Geometría  de formación de imágenes

En esta sección veremos  alguna trasformaciones importantes usadas en el  tratamiento de imágenes, obtendremos un modelo  de cámara y veremos  el problema  de la formación de la imagen en estéreo con algún detalle. Alguna de las trasformaciones de  imágenes en estéreo con algún  detalle.

7.4.1 Algunas transformaciones básicas.

Traslación. La forma más simple de estas transformaciones se da para la rotación de un punto respecto al eje de coordenadas. Según se observa la figura 7.12, la rotación de un punto respecto al eje de coordenadas Z de un ángulo θ se representa usando la transformación

               Cos θ sen θ 0 0

Rθ =      -sen θ cos θ 0 0                                   (7.4-9)

                 0         0      1 0

                0          0      0 1

El ángulo de rotación θ se mide en el sentido de las agujas del reloj observando el origen desde un punto situado en el semieje +Z. obsérvese  que esta transformación afecta únicamente a los valores de las coordenadas X e Y.

La rotación de un punto respecto al eje X en un ángulo α se presenta usando la transformación.

Tomando como referencia la ecuación (7.4-5), sean V1, V2,…, Vm las coordenadas de m puntos.

7.4.2 Transformaciones de perspectiva

Una transformación de perspectiva  (también llamada transformación de imagen) proyecta puntos tridimensionales sobre un plano. En esta sección se supone que el sistema de coordenadas de la cámara está alineado con el sistema de coordenadas absoluto (X, Y, Z) . La conversión de coordenadas homogéneas a coordenadas cartesianas se realiza, obviamente dividiendo las 3 primeras coordenadas homogéneas por la cuarta. Un punto en los sistemas absoluto de coordenadas cartesianas puede expresarse como un vector.

Así las coordenadas cartesianas de cualquier punto en el sistemas de coordenadas de la cámara vienen dadas en forma vectorial por

Los dos primeros componentes de c son las coordenadas (x,y) en el plano de la imagen de un punto tridimensional (X,Y,Z) proyectado, como se vio en las ecuaciones (7.4-18)(7.4-19). La transformación de perspectiva inversa proporciona los puntos de la imagen al espacio tridimensional. La ecuación de esta recta en el sistema de coordenadas absoluto se obtiene de las ecuaciones (7.14-18)(7.4-19) esto es,

        X=   x0       (λ-Z)                        (7.4-30)

                λ

        Y=   y0      (λ-Z)                        (7.4-31)

                λ

estas ecuaciones muestran que, al menos que conozcamos algo sobre el punto tridimensional que genero a un punto de imagen dado (por ejemplo, su coordenada Z), no podemos recuperar completamente el punto tridimensional de su imagen. Las ecuaciones (7.4-23) y (7.4-24) caracterizan la información de una imagen usando la proyección de puntos tridimensionales sobre un plano de imagen. Esta figura muestra también el sistema de coordenadas de la cámara y los puntos de la imagen (c).  La rotación se hace respecto al eje x y se lleva a cabo aplicando la matriz  de transformación Rα dada en la ecuación (7.4-10) a todos los puntos  (incluido el punto RθGwh).

...

Descargar como (para miembros actualizados) txt (30 Kb) pdf (586 Kb) docx (788 Kb)
Leer 22 páginas más »
Disponible sólo en Clubensayos.com