Mi nombre es Karen y tengo 20 años estudio Ingenieria en Sistemas y tengo un hijo de 1 año 2 meses
sábado, 13 de septiembre de 2014
Lecturas
a) Conferencia
La conferencia empezo con el maestro Bello
dandonos una breve bienvenida al igual que el director y continuando con el Dr. Rodrigo Rodriguez nos dijo que nos dignificáramos que no seamos héroes, que no nos desvelemos matándonos haciendo programas que queramos ser unos "Todologos" por que pues no podemos saber de todo en esta vida, que vivamos nuestra vida que no nada mas no nos la pacemos sentados en una computadora, nos enseño que el estres es un asesino silencioso que nunca hay una mejor tecnología, hoy en día todo se va renovando e innovando y que no hay mejor dependencia al proveedor que un buen servicio.También nos hablo de la estimación del software que puede ser de tiempo: horas y de tamaños: Lineas de código y analizamos los estudios de salarios de un programador
La conferencia empezo con el maestro Bello
dandonos una breve bienvenida al igual que el director y continuando con el Dr. Rodrigo Rodriguez nos dijo que nos dignificáramos que no seamos héroes, que no nos desvelemos matándonos haciendo programas que queramos ser unos "Todologos" por que pues no podemos saber de todo en esta vida, que vivamos nuestra vida que no nada mas no nos la pacemos sentados en una computadora, nos enseño que el estres es un asesino silencioso que nunca hay una mejor tecnología, hoy en día todo se va renovando e innovando y que no hay mejor dependencia al proveedor que un buen servicio.También nos hablo de la estimación del software que puede ser de tiempo: horas y de tamaños: Lineas de código y analizamos los estudios de salarios de un programador- $26,300 en México
- $32,000 en Nuevo León
- $14,000 en Veracruz
- Como socio
- Freelance
- Empleado de nomina
- Empleado por horarios
- Becario
- Startup
- Proveedor de servicios
Pero de los 6 la historia o relato que hablo me pareció mas interesante el ultimo ya no recuerdo su nombre pero me gusto mucho su experiencia, lo que recuerdo fue que dijo que el no era de puro 100 si no de 66 o 70 y que nunca pasaba de ningún 90 pero eso no lo detuvo para probar sus capacidades y todo lo que el podía aprender, nos enseño que no siempre es de estarse matando estudiando y estudiando si no solo comprender y entenderle a la programación por que el es bueno en eso y en la base de datos.
Los gráficos por computadora se han convertido en una
potente herramienta para la producción rápida y económica de imágenes. Actualmente
los gráficos por computadora se usan en campos tan diversos como las ciencias,
las artes, la ingeniería, los negocios, la industria, la medicina, las
administraciones públicas, el entretenimiento, la publicidad, la educación, la formación
y en aplicaciones caseras.
Han sucedido importantes eventos que han sentado las bases
para las gráficas por computadora. El proyecto Whirlwhin inicio como un
esfuerzo para construir un simulador de vuelo y SAGE para proveer un sistema de
defensa aéreo en los Estados Unidos como protección contra un ataque nuclear. La
estación de trabajo SAGE tenía un monitor vectorial y lápiz luminoso que los
operadores usaban para dibujar planes de vuelo sobre las regiones. En 1956 la
primera computadora de transistores se construyó en la MIT. Los únicos lenguajes
de programación eran ensamblador, FOTRAN y Algol.
El sistema Sketchpad fue creado en el laboratorio Lincoln de
MIT un ordenador TX,2 una de las mejores maquinas que entonces contaba con 320 kb
de memoria base y 8 MB de memoria externa en forma de cintas magnéticas
En 1976 la computadora Apple 1 fue el primer éxito comercial
de la computación personal. La IBM comenzó a ser vendida en agosto de 1981. La frase
“computadora personal” era de uso corriente antes de 1981, y usada por primera vez
en 1972.
En 1983 Jobs se dio cuenta que el futuro eran los iconos y
los entornos agradables y los patrocino creando Apple Lisa, primer ordenador
comercial con interfaz gráfica y ratón. En 1989 Adobe Photoshop comenzó a ser comercializado
siendo hoy una de las aplicaciones clásicas para el manejo de imágenes.
La tarjeta VGA fue creada en 1987 por IBM. En los años 1990s
las computadoras aun no soportaban los gráficos 3D. La web nació alrededor de
1989 a partir de un proyecto del CERN, la intención original era hacer más fácil
el compartir textos de investigación en científicos y permitir al lector
revisar las referencias de un artículo.
En 1996 sale al mercado nintendo 64. Súper Mario 64 es
considerado por muchos el mejor juego de plataformas de todos los tiempos y su
sistema de juego es la base de la mayor parte de los juegos. En la actualidad
la mayoría de las personas que trabajan con gráficos utilizan computadoras de
grandes capacidades: discos duros de terabytes, tarjetas gráficas aceleradoras
de video con memoria de gigabytes, mouse óptico y memoria RAM.
En los procesos de diseño se hace uso importante de las gráficas
por computadora en particular. Existen paquetes para el diseño de circuitos electrónicos,
los cuales permiten diseñar un sistema colocando sucesivamente los componentes
en el esquema y conectando estos componentes.
Los arquitectos utilizan métodos gráficos interactivos para
proyectar plantas arquitectónicas.
Los artistas o autores utilizan una variedad de métodos computacionales
incluyendo hardware de propósito especial como tabletas digitalizadoras
software desarrollado para este propósito tales como Adobe Photoshop. El artista
puede dibujar utilizando la tableta digitalizadora o inclusive el Mouse o ratón
para crear un dibujo simple o muy detallado.
La animación por computador es para la mayoría de la gente
un sinónimo de grandes eventos de la pantalla grandes tales como Star Wars, Toy
Story y Titanic.
Un videojuego es un programa informático, creado
expresamente para divertir, formando parte del sector audiovisual. Entre las
consolas más populares se encuentran GameBoy, Xbox, Nintendo y PlayStation.
Modelos de sistemas físicos, fisiológicos, tendencias de población,
pueden ayudar a los estudiantes a comprender la operación del sistema. Algunos simuladores
no tienen de video, por ejemplo, un simulador de vuelo solo tiene un panel de
control como instrumento de vuelo.
En las gráficas por computadora, se utiliza una computadora
para crear imagen. Las dos aplicaciones principales del procesamiento de imágenes
son:
·
El mejoramiento de la calidad de imagen
·
La percepción de la máquina de información visual,
como se utiliza en la robótica
Para aplicar los métodos de procesamiento de imágenes,
primero digitalizamos una fotografía u otra imagen en archivo de imagen.
Un componente importante de una interfaz gráfica es un
administrador de ventanas que hace posible que un usuario despliegue áreas con
ventanas múltiples. Cada ventana puede contener un proceso distinto que a su
vez puede contener despliegues gráficos y no gráficos. Un icono es un símbolo grafico
diseñado para semejarse a la opción de procesamiento que representa.
Existen 2 tipos de formatos: los vectoriales y los de mapa
de bits también conocidos como rasterizados. Los rasterizados se distinguen de
los vectoriales en que estos últimos representan una imagen a través del uso de
objetos geométricos como curvas y polígonos mientras que los mapas de bits se
almacenan como un conjunto de pixeles.
Los niños héroes son 6 cadetes que eran mexicanos ue murieron en la batalla de Chapultepec entre los días 12 y 13 de Septiembre de 1847, sólo 5 eran estudiantes y uno recién graduado del Colegio Militar, cuyos nombres eran :
- Juan de la Barrera
- Agustín Melgar
- Fernando Montes de Oca
- Vicente Suarez
- Francisco Márquez
- Juan Escutia
Es así como el gobierno estadounidense renueva sus solicitudes al gobierno mexicano para pactar la venta de los territorios del norte de México, pero al recibir las negativas de este, empieza una serie de preparaciones gubernamentales y privadas como fueron la toma de San Francisco en 1845 y la inmigración ilegal de miembros de la Iglesia Mormona al Lago Salado que pertenecía al territorio mexicano de Nuevo México en 1846 y que posteriormente se convirtió en el territorio de Utah.El gobierno mexicano rompió relaciones con los EE. UU. al declararse su ingreso a la Federación Estadounidense, entonces el gobierno de los EE. UU mando sus tropas a la zona norte del Río Bravo para asegurar la franja de territorio que estaba en disputa entre el estado de Texas y el gobierno mexicano, y estas tropas crearon una serie de fuertes en la zona, donde se dieron varios encuentros con patrullas del ejército mexicano del Norte.
El proceso de la
independencia de México fue uno de los más largos de América Latina. La Nueva
España permaneció bajo el control de la Corona por unos tres siglos. Sin
embargo, a finales del siglo XVIII, ciertos cambios en la estructura social,
económica y política de la colonia llevaron a una élite ilustrada de
novohispanos a reflexionar acerca de su relación con España. Sin subestimar la
influencia de la Ilustración, la Revolución Francesa ni la independencia de
Estados Unidos, el hecho que llevó a la élite criolla a comenzar el movimiento
emancipador fue la ocupación francesa de España, en 1808. Hay que recordar que
en ese año, Carlos IV y Fernando VII abdicaron sucesivamente en favor de José
Bonaparte, de modo que España quedó como una especie de protectorado francés.
En las colonias españolas en América, se formaron varias juntas que tenían como propósito conservar la soberanía hasta que regresara el rey Fernando VII al trono. Nueva España no fue la excepción (encabezados por Francisco Primo de Verdad y Ramos), la diferencia es que el primer intento de este tipo concluyó con la destitución del virrey y la sujeción del Ayuntamiento de México a la autoridad directa de la nueva cabeza de la colonia (que a diferencia de Iturrigaray, no simpatizaba con la Junta). Tal situación llevó a los criollos a radicalizar su posición. Finalmente, el núcleo donde hubo de comenzar la guerra por la independencia fue Dolores, Guanajuato, luego que la conspiración de Querétaro fue descubierta. Aunque aquél 16 de septiembre de 1810 el cura Miguel Hidalgo y Costilla se lanzó a la guerra apoyado por una tropa de indígenas y campesinos, bajo el grito de "Viva la Virgen de Guadalupe, muerte al mal gobierno abajo los gachupines", finalmente la revolución le llevó por otro camino y se convirtió en lo que fue: una guerra independentista.
El conflicto duró once años y distó mucho de ser un movimiento homogéneo. Como se ha dicho, al principio reivindicaba la soberanía de Fernando VII sobre España y sus colonias, pero con el paso del tiempo adquirió matices republicanos. En 1813, el Congreso de Chilpancingo (protegido por el generalísimo José María Morelos y Pavón) declaró constitucionalmente la independencia de la América Mexicana. La derrota de Morelos en 1815 redujo el movimiento a una guerra de guerrillas. Hacia 1820, sólo quedaban algunos núcleos rebeldes, sobre todo en la sierra Madre del Sur y en Veracruz. Por esas fechas, Agustín de Iturbide pactó alianzas con casi todas las facciones (incluyendo al gobierno virreinal) y de esta suerte se consumó la independencia el 27 de septiembre de 1821. España no la reconoció formalmente hasta diciembre de 1836 y de hecho intentó reconquistar México, sin éxito.
La ex colonia española pasó a ser una efímera monarquía constitucional católica llamada Imperio Mexicano. Finalmente fue disuelto en 1823, cuando luego de varios enfrentamientos internos y la separación de Centroamérica, se convirtió en una república federal.
En las colonias españolas en América, se formaron varias juntas que tenían como propósito conservar la soberanía hasta que regresara el rey Fernando VII al trono. Nueva España no fue la excepción (encabezados por Francisco Primo de Verdad y Ramos), la diferencia es que el primer intento de este tipo concluyó con la destitución del virrey y la sujeción del Ayuntamiento de México a la autoridad directa de la nueva cabeza de la colonia (que a diferencia de Iturrigaray, no simpatizaba con la Junta). Tal situación llevó a los criollos a radicalizar su posición. Finalmente, el núcleo donde hubo de comenzar la guerra por la independencia fue Dolores, Guanajuato, luego que la conspiración de Querétaro fue descubierta. Aunque aquél 16 de septiembre de 1810 el cura Miguel Hidalgo y Costilla se lanzó a la guerra apoyado por una tropa de indígenas y campesinos, bajo el grito de "Viva la Virgen de Guadalupe, muerte al mal gobierno abajo los gachupines", finalmente la revolución le llevó por otro camino y se convirtió en lo que fue: una guerra independentista.
El conflicto duró once años y distó mucho de ser un movimiento homogéneo. Como se ha dicho, al principio reivindicaba la soberanía de Fernando VII sobre España y sus colonias, pero con el paso del tiempo adquirió matices republicanos. En 1813, el Congreso de Chilpancingo (protegido por el generalísimo José María Morelos y Pavón) declaró constitucionalmente la independencia de la América Mexicana. La derrota de Morelos en 1815 redujo el movimiento a una guerra de guerrillas. Hacia 1820, sólo quedaban algunos núcleos rebeldes, sobre todo en la sierra Madre del Sur y en Veracruz. Por esas fechas, Agustín de Iturbide pactó alianzas con casi todas las facciones (incluyendo al gobierno virreinal) y de esta suerte se consumó la independencia el 27 de septiembre de 1821. España no la reconoció formalmente hasta diciembre de 1836 y de hecho intentó reconquistar México, sin éxito.
La ex colonia española pasó a ser una efímera monarquía constitucional católica llamada Imperio Mexicano. Finalmente fue disuelto en 1823, cuando luego de varios enfrentamientos internos y la separación de Centroamérica, se convirtió en una república federal.
Tareas
Mapa Mental:
Trabajo: Presentacion:
Mapa Mental: Trabajo:
Presentacion:
Mapa Mental:
Trabajo: Presentacion:
Mapa: Trazado de lineas rectas Trabajo: Presentaciones:
UNIDAD 3. GRAFICACION 3D
GRAFICACION 3D.
El término gráficos 3D por computadora (o por ordenador) se refiere a trabajos de arte gráfico que son creados con ayuda de computadoras y programas especiales. En general, el término puede referirse también al proceso de crear dichos gráficos, o el campo de estudio de técnicas y tecnología relacionadas con los gráficos tridimensionales.
Un gráfico 3D difiere de uno bidimensional principalmente por la forma en que ha sido generado. Este tipo de gráficos se originan mediante un proceso de cálculos matemáticos sobre entidades geométricas tridimensionales producidas en un ordenador, y cuyo propósito es conseguir una proyección visual en dos dimensiones para ser mostrada en una pantalla o impresa en papel.
En general, el arte de los gráficos tridimensionales es similar a la escultura o la fotografía, mientras que el arte de los gráficos 2D es análogo a la pintura. En los programas de gráficos por computadora esta distinción es a veces difusa: algunas aplicaciones 2D utilizan técnicas 3D para alcanzar ciertos efectos como iluminación, mientras que algunas aplicaciones 3D primarias hacen uso de técnicas 2D.
------------------------------------------------------------------------------------------------------------
3.1 REPRESENTACION DE OBJETOS EN TRES DIMENSIONES.
La representación de los objetos en tres dimensiones sobre una superficie plana, de manera que ofrezcan una sensación de volumen se llama Perspectiva. Se representan los objetos sobre tres ejes XYZ. En el eje Z, se representa la altura. En el eje Y, se representa la anchura y en el eje X, se representa la longitud.
Los distintos tipos de perspectivas dependen de la inclinación de los planos Los sistema más utilizados son la isométrica, la caballera y la cónica. Estudiaremos en este curso las dos primeras.
Perspectiva Isométrica. En ella los ejes quedan separados por un mismo ángulo (120º). Las medidas siempre se refieren a los tres ejes que tienen su origen en un único punto.
Perspectiva Caballera. En ella los ejes X y Z tienen un ángulo de 90º y el eje Y con respecto a Z tiene una inclinación de 135º. En es te caso las medidas en los ejes X y Z son las reales y las del eje Y tiene un coeficiente de reducción de 0.5.
DIBUJAR EN PERSPECTIVA.........
En ambas perspectivas, el sistema más sencillo es llevar las tres vistas principales sobre los planos formados por los ejes:
Alzado en el plano XZ.
Planta en el plano XY.
Perfil en el plano YZ.
Cada una de las aristas que forman las vistas se prolonga paralelamente al eje que corresponda:
Horizontal paralelo al eje de las X.
Vertical paralelo al eje de las Z.
Profundidad paralelo al eje de las Y.
Transformaciones en OpenGL....
En algunos tutoriales anteriores de OpenGL se han mencionado de manera fragmentaria los conceptos de transformaciones:
· En los “Hola Mundo 3d en OpenGL” y “Hola Complicado Mundo OpenGL-win32” se utilizaron algunas transformaciones de proyección y viewport para ajustar la inicialización de la ventana, pero sin entrar mucho en detalle acerca de su funcionamiento.
· Proyección: Trasforman una escena 3d “abstracta”, en una imagen plana que puede ser visualizada en una pantalla.
· Viewport: Ajustan el producto de la proyección a las dimensiones de un rectángulo contenedor (ventana).
· De vista: Que definen y afectan la posición desde la cual se visualizan las escenas tridimensionales.
· Modelado: Sirven para manipular los objetos en la escena, permitiendo trasladarlos, rotarlos y deformarlos (escalarlos).
· Modelo-Vista: Son la combinación de las dos transformaciones anteriores, que desde un punto de vista práctico son semejantes.
· void glMatrixMode( enum mode ); Permite seleccionar la matriz sobre la cual se realizaran las operaciones, los posibles valores de mode son TEXTURE, MODELVIEW, COLOR o PROJECTION . Por ahora las más interesantes son MODELVIEW y PROJECTION, las otras se verán en su momento.
· Void glLoadMatrix{fd} (T m[16]); Recibe una matriz de 4×4 que reemplaza la actual seleccionada. El arreglo es ordenado en forma de una matriz que tiene orden Y, a diferencia de las matrices convencionales que tienen orden X, lo que quiere decir que tiene la forma.
· void glMultMatrix{fd}( T m[16] ); Multiplica la matriz actual por la matriz m[16] y reemplaza la matriz actual con el resultado de la operación. La operación resultante sería algo así como A’ = A M , donde A es la matriz actual, M es la matriz suministrada y A’ es la nueva matriz que resulta de la operación y que reemplaza a A.
· void glLoadTransposeMatrix{fd}( T m[16] ); Realiza una función similar a LoadMatrix(), con la diferencia que trabaja sobre una matriz en orden X así.
· void glMultTransposeMatrix{fd}( T m[16] ); Misma funcionalidad que MultMatrix() , solo que actúa en base al la matriz en orden X, o sea la transpuesta.
· void glLoadIdentity( void ); Remplaza la matriz actual por la matriz identidad de tamaño 4×4.
Estas operaciones afectan directamente las matrices mencionadas anteriormente, debido a que las operaciones de “alto nivel” (trasladar, rotar, escalar) que existen mas adelante se concatenan, es decir su efecto se acumula sobre matriz actual, existen dos operaciones que permiten guardar la matriz actual en una pila y restaurarla cuando sea necesario, estas son:
· void glPushMatrix( void ); Coloca una copia de la matriz actual en la parte superior de la pila correspondiente.
· void glPopMatrix( void ); Saca el elemento superior de la pila, que pasa a reemplazar a la matriz actual.
Estas dos operaciones son muy utilizadas, debido a que permiten realizar transformaciones sobre objetos diferentes, manteniendo algunas de las anteriores sin modificar.
Proyección........
Como ya se ha visto en tutoriales anteriores, OpenGL maneja 2 tipos de proyección, en perspectiva y ortográfica, donde la primera corresponde a la visión “realista” de la escena, mientras que la segunda es una “plana” que no deforma las dimensiones de los objetos dependiendo de su distancia a la cámara.
Ortográfica: Para ajustar la proyección ortográfica se utiliza el siguiente grupo de funciones:
glOrtho(GLdouble left, GLdouble right, GLdouble bottom, GLdouble top, GLdouble near, GLdouble far);
gluOrtho2D(GLdouble left, GLdouble right, GLdouble bottom, GLdouble top);
Perspectiva: Existen dos manera de manejar la proyección en perspectiva, a través de de una función gl o mediante la librería glu (una tercera puede ser realizar los cálculos de la matriz “manualmente”. En el primer caso:
glFrustrum(GLdouble left, GLdouble right, GLdouble bottom, GLdouble top, GLdouble near, GLdouble far).
Transformaciones ModelView........
Una tarea muy común en la creación de gráficos 2d, 3d y videojuegos es la de mover objetos par crear cierta animación. La primera idea que se nos viene a la cabeza en el caso de OpeGL es que todo modelo está formado por primitivas, toda primitiva por puntos y finalmente todo punto por una tripleta de coordenadas XYZ, así que si se cambian las coordenadas todo de ahí hacia arriba se mueve.
void glRotate[fd](GLfloat angle, GLfloat x, GLfloat y, GLfloat z);
Hay que tener en cuenta las siguientes características a la hora de utilizar estas funciones:
· Estas tres operaciones afectan la matriz actual seleccionada, bien sea MODELVIEW o PROJECTION, generalmente para propósitos de rotar objetos dentro de la escena se utiliza la matriz MODELVIEW.
· El eje coordenado de referencia para las operaciones tanto en MODELVIEW como en PROJECTION se denomina “eye coordinates”, que traduce coordenadas de “ojo” o mejor “vista”. Este es un sistema inamovible y en ausencia de cualquier transformación, la “cámara” está situada en (0,0,0) apuntando hacia la dirección Z negativa, con el vector “arriba” en el sentido Y positivo.
· Cada operación que afecta la matriz MODELVIEW crea otro sistema coordenado para los objetos que se dibujen después de realizada la trasformación, dicho sistema difiere del “básico”, es decir de las llamadas coordenadas de vista (eye coordinates) dependiendo de todo el conjunto de transformaciones realizadas desde el momento en que la matriz MODELVIEW dejo de ser la identidad.
· Una consecuencia de lo anterior es que las operaciones no son conmutativas, es decir que un llamado de glRotatef(), seguido de uno de glTranslatef() produce un efecto diferente a llamar las operaciones en orden inverso. Esto se ve mejor ilustrado en el gráfico:
· Es importante aprender a utilizar correctamente glPushMatrix(), glPopMatrix() y otras operaciones que permitan salvar y restaurar estados de matriz, debido a que permiten realizar translaciones y rotaciones especificas para un cierto objeto, sin alterar los otros.
Hardware....
En realidad, el API de ogl está pensado para trabajar bajo el respaldo de un hardware capaz de realizar las operaciones necesarias para el renderizado, pero si no se dispone de ese hardware, estas operaciones se calcularan por medio de un software contra la CPU del sistema. Así que los requerimientos hardware son escasos, aunque cuanto mayor sea las capacidades de la maquina, mayor será el rendimiento de las aplicaciones ogl.
Windows.....
En principio, cualquier versión de windows viene con las librerías necesarias para ejecutar cualquier aplicación que utilice OpenGL. Para el desarrollo de las mismas, el Microsoft Visual Studio, y en particular Visual C++ trae también todo lo necesario. Puedes consegir, además, la última versión de la GLUT en la web de Nate Robins.
Las coordenadas oculares se sitúan en el punto de vista del observador, sin importar las transformaciones que tengan lugar. Por tanto, estas coordenadas representan un sistema virtual de coordenadas fijo usado como marco de referencia común.
Transformaciones
Las transformaciones son las que hacen posible la proyección de coordenadas 3D sobre superficies 2D. También son las encargadas de mover, rotar y escalar objetos.
El modelador
En esta sección se recogen las transformaciones del observador y del modelado puesto que, como se verá en el apartado, constituyen, al fin y al cabo, la misma transformación.
Transformaciones del observador.....
La transformación del observador es la primera que se aplica a la escena, y se usa para determinar el punto más ventajoso de la escena. Por defecto, el punto de vista está en el origen (0,0,0) mirando en dirección negativa del eje z. La transformación del observador permite colocar y apuntar la cámara donde y hacia donde se quiera.
Transformaciones del modelo
Estas transformaciones se usan para situar, rotar y escalar los objetos de la escena. La apariencia final de los objetos depende en gran medida del orden con el que se hayan aplicado las transformaciones.
Transformaciones de la proyección
La transformación de proyección se aplica a la orientación final del modelador. Esta proyección define el volumen de visualización y establece los planos de trabajo
Los dos tipos de proyección más utilizados son la ortográfica y la perspectiva, que veremos más adelante.
Transformaciones de la vista
En el momento en que se ha terminado todo el proceso de transformaciones, solo queda un último paso: proyectar lo que hemos dibujado en 3D al 2D de la pantalla, en la ventana en la que estamos trabajando.
Matrices
Las matemáticas que hay tras estas transformaciones se simplifican gracias a las matrices. Cada una de las transformaciones de las que se acaba de hablar puede conseguirse multiplicando una matriz que contenga los vértices por una matriz que describa la transformación.
El canal de transformaciones
Para poder llevar a cabo todas las transformaciones de las que se acaba de hablar, deben modificarse dos matrices: la matriz del Modelador y la matriz de Proyección.
La matriz del modelador
La matriz del modelador es una matriz 4x4 que representa el sistema de coordenadas transformado que se está usando para colocar y orientar los objetos.
----------------------------------------------------------------------------------------------------------------------------------
3.2 VISUALIZACION DE OBJETOS........

No cabe duda de que la representación tridimensional del territorio abre nuevas posibilidades en el ámbito geográfico. Pero el 3D por sí solo no está justificado. Las acciones para la navegación por una escena tridimensional son más complejas que las necesarias para la navegación en un plano. Cada aplicación de software ha resuelto de manera distinta, la manera de controlar la elevación, rotación y cabeceo del punto de vista, lo que requiere un aprendizaje por parte del usuario. Además, el tiempo real de las escenas exige más cantidad de recursos, tanto de cálculo como de datos.
La representación tridimensional es conveniente cuando la visualización de una tercera magnitud, típicamente la elevación del terreno, resulta útil para la interpretación de los datos que se quieren mostrar. Se presentan a continuación algunos de los usos más comunes.
GRAFICACION 2D.
GRAFICACION 2D.
Existen dos métodos básicos para proyectar objetos tridimensionales sobre una superficie de visión bidimensional. Todos los puntos del objeto pueden proyectarse sobre la superficie a lo largo de líneas paralelas o bien los puntos pueden proyectarse a lo largo de las líneas que convergen hacia una posición denominada centro de proyección. Los dos métodos llamados proyección en paralelo y proyección en perspectiva, respectivamente, se ilustran. En ambos casos, la intersección de una línea de proyección con la superficie de visión determinada las coordenadas del punto proyectado sobre este plano de proyección. Por ahora, se supone que el plano de proyección de visión es el plano z = 0 de un sistema de coordenadas del izquierdo.
Una proyección en paralelo preserva dimensionar relativas de los objetos y esta es la técnica que se utiliza en dibujo mecánico para producir trazos a escala de los objetos en las dimensiones. Este método sirve para obtener vistas exactas de varios lados de un objeto, pero una proyección en paralelo no ofrece una presentación realista del aspecto de un objeto tridimensional.
Las vistas formadas con proyecciones en paralelo se pueden caracterizar de acuerdo con el angulo que la dirección de proyección forma con el plano de proyección. Cuando la dirección de proyección es perpendicular al plano de proyección, se tiene una proyección ortogonal.Una proyección que no es perpendicular al plano se denomina proyección oblicua.
PROYECCIÓN ORTOGONAL......
La Proyección ortogonal es aquella cuyas rectas proyectantes auxiliares son perpendiculares al plano de proyección (o a la recta de proyección), estableciéndose una relación entre todos los puntos del elemento proyectante con los proyectados.
Existen diferentes tipos:
Vista A: Vista frontal o alzado
Vista B: Vista superior o planta
Vista C: Vista derecha o lateral derecha
Vista D: Vista izquierda o lateral izquierda
Vista E: Vista inferior
Vista F: Vista posterior
Es aquella cuyas rectas proyectantes auxiliares son oblicuas al plano de proyección, estableciéndose una relación entre todos los puntos del elemento proyectante con los proyectados.

Una proyección Oblicua se obtiene proyectando puntos a lo largo de líneas paralelas que no son perpendiculares al plano de proyección. La figura muestra una proyección oblicua de un punto (x, y, z) por una línea de proyección a la posición (xp, Yp).


------------------------------------------------------------------------------------------------------------
3.3 TRANSFORMACIONES TRIDIMENSIONALES.....
MÉTODO DE TRASLACIÓN...
En una representación coordenada homogénea tridimensional, un punto es trasladado (fig.11.1) de la posición (x,y,z) a la posición (x’,y’,z’) con la Operación matricial.
[x´,y´,z´,1]=[x, y, z, 1]

Los parámetros Tx, Ty, Tz, que especifican distancias de traslación para las coordenadas, reciben la asignación de cualquier valor real. La representación matricial de la ecuación 11.1 es equivalente a las tres ecuaciones
x’ =x + Tx, y’ = y + Ty, z’ =z + Tz
Un objetivo se traslada en tres dimensiones transformando cada punto definidor del objeto. La traslación de un objeto representada como un conjunto de superficies poligonales se efectúa trasladando los valores coordenados para cada vértice de cada superficie. El conjunto de posiciones coordenadas trasladadas de los vértices define entonces la nueva posición del objeto.

MÉTODO DE ESCALACIÓN....
Operación matricial.
[x´,y´,z´,1]=[x, y, z, 1]

Los parámetros de escalación Sx, Sy, Sz, se les asigna asignación cualquier valor positivo.
Cuando la transformación 11-3 se aplica para definir puntos en un objeto, el objeto se escala y se desplaza en relación con el origen coordenado.
MÉTODO DE ROTACIÓN.
En una representación coordenada homogénea tridimensional, un punto es trasladado (fig.11.1) de la posición (x,y,z) a la posición (x’,y’,z’) con la Operación matricial.
[x´,y´,z´,1]=[x, y, z, 1]

Los parámetros Tx, Ty, Tz, que especifican distancias de traslación para las coordenadas, reciben la asignación de cualquier valor real. La representación matricial de la ecuación 11.1 es equivalente a las tres ecuaciones
x’ =x + Tx, y’ = y + Ty, z’ =z + Tz
Un objetivo se traslada en tres dimensiones transformando cada punto definidor del objeto. La traslación de un objeto representada como un conjunto de superficies poligonales se efectúa trasladando los valores coordenados para cada vértice de cada superficie. El conjunto de posiciones coordenadas trasladadas de los vértices define entonces la nueva posición del objeto.

MÉTODO DE ESCALACIÓN....
[x´,y´,z´,1]=[x, y, z, 1]

Los parámetros de escalación Sx, Sy, Sz, se les asigna asignación cualquier valor positivo.
Cuando la transformación 11-3 se aplica para definir puntos en un objeto, el objeto se escala y se desplaza en relación con el origen coordenado.

Para especificar una transformación de rotación de un objeto, se debe designar un eje de rotación (en torno al cual se hará girar el objeto) y la cantidad de rotación angular. En aplicaciones bidimensionales, el eje de rotación siempre es perpendicular al plano xy. En tres dimensiones, un eje de rotación puede tener cualquier orientación espacial.los ejes de rotación más fáciles de manejar son aquellos que son paralelos a los ejes coordenados. Asimismo, podemos valernos de las rotaciones en torno a los tres ejes coordenados con el fin de producir una rotación en torno a cualquier eje de rotación especificado en forma arbitraria.
Las direcciones de rotación positivas en torno a los ejes coordenados son en sentido contrario al del reloj, como se observa a lo largo de la posición positiva de cada eje en dirección del origen.
Las direcciones de rotación positivas en torno a los ejes coordenados son en sentido contrario al del reloj, como se observa a lo largo de la posición positiva de cada eje en dirección del origen.
Operación matricial de rotación en el eje Z
El parámetro Ѳ especifica el ángulo de rotación.
El parámetro Ѳ especifica el ángulo de rotación.
[x´,y´,z´,1]=[x, y, z, 1]

Imagen que muestra la rotación de un objeto en torno al eje Z.

Operación matricial de rotación en el eje X
[x´,y´,z´,1]=[x, y, z, 1]


Operación matricial de rotación en el eje y
[x´,y´,z´,1]=[x, y, z, 1]

Imagen que muestra la rotación de un objeto en torno al eje Z.

Operación matricial de rotación en el eje X
[x´,y´,z´,1]=[x, y, z, 1]


Operación matricial de rotación en el eje y
[x´,y´,z´,1]=[x, y, z, 1]
------------------------------------------------------------------------------------------------------------
3.4 LINEAS Y SUPERFICIES CURVAS......
La recta es una sucesión infinita o continua de puntos a lineados en una sola dirección. Es una de las primitivas gráficas en computación gráfica viene dada por la ecuación y= m.x+b, donde m es la pendiente de la recta y v es el corte con el eje y.
Como los pixeles se grafican en posiciones enteras, la linea trazada solo puede aproximar posiciones de lineas reales entre los puntos extremos especificados.
Efecto de escalera que se produce cuando se genera una linea como una serie de pixeles .

TRASFORMAR PRIMITIVAS EN PIXELES
Una linea recta debe dibujarse como una sucesión de pixeles.
Efecto de escalera que se produce cuando se genera una linea como una serie de pixeles .

TRASFORMAR PRIMITIVAS EN PIXELES
Las coordenadas de los pixeles deben estar lo mas cerca posible de una linea recta real.
Un algoritmo debe cumplir con:
*La secuencia de pixeles debe ser lo mas recta que se pueda.
*Las lineas deben tener el mismo grosor e intensidad sin importar el grado de inclinación.
*Las lineas deben dibujarse lo mas rápido posible.
ALGORITMOS PARA TRAZO DE LINEAS......
Ecuación básica de la recta y=m.x+b m es la pendiente y v es la intersección con el eje y.
ALGORITMO DE BRESENHAM.
Calcula cual de dos pixeles es el mas cercano a la trayectoria de una linea.


Sección de una retícula de la pantalla donde se desplegara una linea que pasara por:
(Xi,Yi)

De aquí se tiene y=m(xi+1)+b
Definimos:
d1=y-yi
=m(xi+1)+b-yi
d2=(y1+1)-y
=y1+1-m(xi+1)-b
la diferencia es :

definimos pi como:
donde c es:
obtenemos pi+1 de pi
como:


ATRIBUTOS DE LAS PRIMITIVAS DE SALIDA.....
GRAPHICS 2D SETSTROKE......
BASICSTROKE SOPORTA 3 ESTILOS DE UNIÓN:
*JOIN_BEVEL
*JOIN_MITER
*JOIN_ROUND
El estilo de finales es la decoración que se aplica cuando un segmento de linea termina.
BASICSTROKE soporta 3 estilos de finalización:*CAP_BUTT
*CAP_ROUND
*CAP_SQUARE
ALGORITMO DDA.
El analizador diferencial digital(DDA) es un algoritmo que sirve para calcularposiciones de pixeles a lo largo de una linea, mediante el uso de la ecuación.
∆y=m.∆x
Ecuación básica de la recta y=m.x+b m es la pendiente y v es la intersección con el eje y.
ALGORITMO DE BRESENHAM.
Calcula cual de dos pixeles es el mas cercano a la trayectoria de una linea.
El pixel x(i),y(i) se divide en (xi+1,yi)(xi+1,yi+1) hay que decidir cual pintar calculando la distancia vertical entre el centro de cada pixel y la linea real.
Las posiciones de los pixeles se representan por las áreas rectangulares numeradas.


Sección de una retícula de la pantalla donde se desplegara una linea que pasara por:
(Xi,Yi)

De aquí se tiene y=m(xi+1)+b
Definimos:
d1=y-yi
=m(xi+1)+b-yi
d2=(y1+1)-y
=y1+1-m(xi+1)-b
la diferencia es :

definimos pi como:
donde c es:
obtenemos pi+1 de pi
como:


ATRIBUTOS DE LAS PRIMITIVAS DE SALIDA.....
Estilo de lineas
*Los atributos de estilo de linea determinan la forma en que se desplegara una linea por medio de una rutina de trazo de lineas. Los atributos de linea son su tipo,su anchura y su color.
Tipo de linea
Los atributos de linea incluye las lineas solidas,lineas punteadas con lineas y punteadas.
El método setStrokeStyle permite cambiar el estilo de linea.
Este método acepta los siguientes valores:
a) Graphics.SOLID - linea solida
b) Graphics.DOTTED- linea de puntos
GRAPHICS 2D SETSTROKE......
Un objeto basicstroke contiene información sobre la anchura de la linea, estilo de uniones, estilos finales, y estilo de punteado.Esta información se usa cuando se dibuja una Shape con el método DRAW.
La anchura de linea es la longitud de la linea medida perpendicularmente a su trayectoria. La anchura de la linea se especifica como un valor float en las unidades de coordenadas de usuario, que es equivalente 1/72 pulgadas cuando se utiliza la tranformacion por defecto.
Nota:
Para rellenar o puntear un gráfico primitivo,necesitamos hacer dos llamadas separadas a métodos fill o drawString para rellenar el interior y draw para dibujar el exterior.
Los 3 estilos de linea usados en este ejemplo ancho, estrecho y punteado son ejemplares de:
BasicStroke:
// Sets the Stroke.
...
case 0 : g2.setStroke(new BasicStroke(3.0f)); break;
case 1 : g2.setStroke(new BasicStroke(8.0f)); break;
case 2 : float dash[] = {10.0f};
g2.setStroke(new BasicStroke(3.0f,
BasicStroke.CAP_BUTT,
BasicStroke.JOIN_MITER,
10.0f, dash, 0.0f));
break;
BASICSTROKE SOPORTA 3 ESTILOS DE UNIÓN:
*JOIN_BEVEL
*JOIN_MITER
*JOIN_ROUND
El estilo de finales es la decoración que se aplica cuando un segmento de linea termina.
BASICSTROKE soporta 3 estilos de finalización:*CAP_BUTT
*CAP_ROUND
*CAP_SQUARE
El elemento 0 representa el primer punteado , el elemento 1 el primer espacio , etc. La fase de punteado es un desplazamiento en el patrón de punteado, también especificado en unidades de coordenadas de usuario. La fase de punteado indica que parte del patrón de punteado se aplica al principio de la linea.
PATRÓN DE RELLENO.
PATRÓN DE RELLENO.
Los patrones de relleno están definidos por el atributo Paint en el contexto Graphics2d. Para seleccionar el atributo paint, se crea un ejemplar de un objecto que implemente el interface paint y eso pasa dentro del método Graphics2d setPaint.
ANCHURA DE LINEA.
La implementacion de las opciones de anchura de lineas dependen del tipo de dispositivo de salida que se utilice Una linea ancha en un monitor de vídeo podría trazarse como lineas paralelas adyacentes, mientras que una graficadora de pluma podría requerir cambios de pluma . Como sucede con otros atributos puede usarse como comando de anchura de linea para fijar la anchura regular de la linea.
Color de linea.
Cuando un sistema ofrece sistemas de color (o bien de intensidad) un parámetro que da el indice de color regular se incluye en la lista de valores de atributos del sistema.
Método para cambiar color.
*setColor(int color)
*setColor(int rojo,int verde,int azul)
CONCLUSIÓN............
Graficos 3D
3D:

*setColor(int color)
*setColor(int rojo,int verde,int azul)
CONCLUSIÓN............
Graficos 3D
Se llaman gráficos 3D a todos los objetos que se pueden dibujar en un espacio R3: puntos, segmentos, curvas, superficies y varios cuerpos formados por caras poligonales, así como textos y macros.
En una palabra, son gráficos que tienen profundidad y además aportan mucha sensación de realismo.
En los juegos en 3d el personaje que manejamos o cualquier bot se puede mover en los tres ejes cartesianos: x, y , z.
Comparamos por ejemplo el conocido juego Counterstrike con el Mario de antaño, en el primero te puedes mover izquierda, derecha y arriba; en canvio, si lo comparamos con el segundo ves que no te puedes mover en los tres puntos, solo se mueve en lateral (izquierda y derecha). Por eso llegamos a la conclusión que Counterstrike está en tres dimensiones y el juego de Mario en 2d.
La mayoría de juegos 3d han sido modelados mediante polígonos formando una malla y a continuación han sido renderizados.
En la primera imagen se puede apreciar la sensación de profundidad, de este modo llegamos a la conclusión que el gráfico está en 3d como se puede apreciar fácilmente.
Si lo comparamos con la segunda imagen observaremos muchas diferencia, para empezar el fotorrealismo, no tiene el mismo realismo la primera que la segunda; también podemos ver que el personaje de la segunda solo se puede mover de lado.
De esta manera llegamos a la conclusión que es una imagen en 2 dimensiones. (x, y)

UNIDAD 4. ILUMINACION Y SOMBREADO
Es una región de oscuridad donde la luz es obstaculizada. Una sombra ocupa todo el espacio detrás de un objeto opaco con una fuente de luz frente a él. La sección eficaz de una sombra es una silueta bidimensional una proyección invertida del objeto que aspira la luz.
Existen grados intermedios de sombra y luz entre las superficies completamente iluminadas y la completa oscuridad: la penumbra.
ILUMINACION.........
La iluminancia o nivel de iluminación se define como el flujo luminoso que incide sobre una superficie. Su unidad de medida es el Lux.
4.1 Relleno De Polígonos.
Polígono es una figura básica dentro de las representaciones y tratamiento de imágenes bidimensionales y su utilización es muy interesante para modelar objetos del mundo real.
En un sentido amplio, se define como una región del espacio delimitada por un conjunto de líneas (aristas) y cuyo interior puede estar rellenado por un color o patrón dado.
Luego sigue el relleno de polígonos convexos de N-lados.
Relleno de polígonos cóncavos.
SCAN-LINE
INUNDACIÓN
FUERZA BRUTA
PATRÓN
SCAN-LINE.
Fila a fila van trazando lineas de color entre aristas.
para scan-line que cruce el polígono se busca en la intersección entre las líneas de barrido y las aristas del polígono.
Dichas intersecciones se ordenan y se rellenan a pares.
LINEA DE BARRIDO....
Es valido para polígonos cóncavos como convexos. Incluso para si el objeto tiene huecos interiores.
Funcionan en el trozo de líneas horizontales, denominadas lineas de barridos, que intersectan un numero de veces, permitiendo a partir de ella identificar los puntos que se consideran interiores al polígono.
INUNDACIÓN...
Empieza en un interior y pinta hasta encontrar la frontera del objeto.
Partimos de un punto inicial (x,y), un colo de relleno y un color de frontera.
El algoritmo va testeando los píxeles vecinos a los ya pintados, viendo si son frontera o no.
No solo sirven para polígonos, sino para cualquier área curva para cualquier imagen AE se usan los programas de dibujo.
FUERZA BRUTA...
Calcula una caja contenedora del objeto.
Hace un barrido interno de la caja para comprobar c/pixel este dentro del polígono.
Con polígonos simétricos basta con que hagamos un solo barrido en una sección y replicar los demás pixeles.
Requiere aritmética punto-flotante, esto lo hace preciso y costoso.
RELLENO MEDIANTE UN PATRÓN....
Un patrón viene definido por el área rectangular en el que cada punto tiene determinado color o nivel de gris. Este patrón debe repetirse de modo periódico dentro de la región a rellenar. Para ello debemos establecer una relación entre los puntos del patrón y los pixeles de la figura. En definitiva debemos determinar la situación inicial del patrón respecto a la figura de tal forma que podamos establecer una correspondencia entre los pixeles interiores al polígono y los puntos del patrón.
ALTERNATIVAS PARA LA SITUACIÓN INICIAL DEL PATRÓN....
Consiste en situar el punto asociado a la esquina superior izquierda del patrón en un vértice del polígono.
Considerar la región a rellenar en toda la pantalla y por lo tanto el patrón se citua en el origen de esta (esquina superior izquierda).
Entendemos por modelo de iluminación el cálculo de la intensidad de cada punto de la escena.
En el cálculo de la intensidad de un punto intervienen:
El tipo e intensidad de la fuente de luz
El material del objeto
La orientación del objeto con respecto a la luz
El modelo más utilizado es el modelo de Phong.
Si un rayo de luz entra al ojo directamente de la fuente, se verá el color de la fuente.
Si un rayo de luz pega en una superficie que es visible al observador, el color visto se basará en la interacción entre la fuente y el material de la superficie: se verá el color de la luz reflejado de la superficie a los ojos.
En término de gráfica por computadora, se reemplaza el observador por el plano de proyección, como se ve en la siguiente figura:
El recorte del plano de proyección y su mapeo a la pantalla significa un número particular de pixeles de despliegue.
El color de la fuente de luz y las superficies determina el color de uno o mas pixeles en el frame buffer.
Se debe considerar solo aquellos rayos que dejan las fuentes y llegan al ojo del observador, el COP, después de pasar por el rectángulo de recorte.
Cuando la luz da en una superficie, parte se absorbe, y parte se refleja.
Superficies Difusas
Superficies difusas perfectas
Superficies translucidas
FUENTES DE LUZ......
La luz puede dejar una superficie mediante dos procesos fundamentales:
Emisión propia
Reflexión
Normalmente se piensa en una fuente de luz como un objeto que emite luz solo mediante fuentes de energía internas, sin embargo, una fuente de luz, como un foco, puede reflejar alguna luz incidente a esta del ambiente.
Si se considera una fuente como en la siguiente figura, se le puede ver como un objeto con una superficie.
MODELO DE ILUMINACIÓN PHONG....
Es un modelo empírico simplificado para iluminar puntos de una escena
Los resultados son muy buenos en la mayoría de las escenas
En este modelo, los objetos no emiten luz, sólo reflejan la luz que les llega de las fuentes de luz o reflejada de otros objetos
El modelo usa cuatro vectores para calcular el color para un punto arbitrario p sobre la superficie.
Si la superficie es curva, los cuatro vectores pueden cambiar según se mueve de punto a punto.
1.El vector n es la normal en p.
2.El vector v tiene dirección de p al observador o COP.
3.El vector l tiene dirección de una línea de p a un punto arbitrario sobre la superficie para una fuente de luz distribuida, o una fuente de luz de punto.
4.El vector r tiene la dirección de un rayo perfectamente reflejado de l. La dirección de r está determinada por n y l.
El modelo Phong apoya los tres tipos de interacciones material-luz: ambiente, difusa y especular. Si se tiene un conjunto de fuentes puntos, con componentes independientes para cada uno de los tres colores primarios para cada uno de los tres tipos de interacciones material- luz; entonces, se puede describir la matriz de iluminación para una fuente de luz i para cada punto p sobre una superficie, mediante:
La primera fila contiene las intensidades ambiente para rojo, verde y azul para la fuente i.
La segunda fila contiene los términos difusos.
La tercera fila contiene los términos especulares. (Aún no se ha aplicado ninguna atenuación por la distancia.)
Si se emplea solo reflexiones ambiente y difusas, las imágenes serán sombreadas y aparecerán tridimensionales, pero todas las superficies se verán sin vida. Lo que hace falta son la reflexión de secciones más brillantes en los objetos. Esto ocasiona un color diferente del color del ambiente reflejado y luz difusa. Una esfera roja, bajo luz blanca, tendrá un resplandecer blanco que es la reflexión de parte de la luz de la fuente en la dirección del observador.
Mientras que una superficie difusa es rugosa, una superficie especular es suave. Mientras mas lisa se la superficie, mas se parece a un espejo, como se ve en la siguiente figura.
Según la superficie se hace mas lisa, la luz reflejada se concentra en un rango mas pequeño de ángulos, centrado alrededor del ángulo de un reflector perfecto: un espejo o una superficie especular perfecta. Modelar superficies especulares realísticas puede ser complejo, ya que el patrón por el cual se esparce no es simétrico, dependiendo de el largo de onda de la luz incidente y cambia con el ángulo de reflexión
Phong propuso un modelo aproximado que puede computarse con solo un pequeño incremento en el trabajo para superficies difusas. El modelo agrega un término para reflexión especular. Se considera la superficie como rugosa para el término difuso u lisa para el término especular. La cantidad de luz que el observador ve depende del ángulo ø entre r, la dirección de un reflector perfecto, y v, la dirección del observador. El modelo de Phong usa la ecuación:
Is= ks Ls cosα φ 0 ≤ ks ≤ 1
El modelo de Phong se ha hecho en espacio de objetos. El sombreado, sin embargo, no se hace hasta que los objetos hayan pasado por las transformaciones modelo-vista y proyección. Estas transformaciones pueden afectar los términos de coseno en el modelo.
INTENSIDAD CONSTANTE....
En ciertas condiciones, un objeto con superficies planas puede sombrearse en forma realista utilizando intensidades de superficie constantes. en el caso donde una superficie se expone solamente a la luz ambiente y no se aplican diseños, texturas o sombras de superficie, el sombreado constante genera un a representación exacta de la superficie.
Una superficie curva que se representa como un conjunto de superficies planas puede sombrearse con intensidades de superficie constante, si los planos se subdividen la superficie se hace lo suficientemente pequeños.
La siguiente figura muestra un objeto modelado con sombreado constante.
Con este método, la intensidad se calcula en un punto interior de cada plano y toda la superficie se sombrea con la intensidad calculada. cuando la orientación entre planos adyacentes cambia en forma abrupta, la diferencia en intensidades de superficie puede producir un efectos áspero o irreal. podemos alisar las discontinuidades de intensidad sobre cada superficie de acuerdo con algún esquema de interpolación.
SOMBREADO DE GOURAUD...
Este esquema de interpolación de intensidad, creado por gouraud, elimina discontinuidades en intensidades entre planos adyacentes de la representación de una superficie variando en forma lineal la intensidad sobre cada plano de manera que lo valores de la intensidad concuerden en las fronteras del plano. en este método los valores de la intensidad a lo largo de cada línea de rastreo que atraviesan una superficie se interpolan a partir de las intensidades en los puntos de intersección de con la superficie.
La siguiente figura demuestra este esquema de interpolación.
Este proceso se repite con cada línea que pasa por el polígono. en este método de interpolación primero deben aproximarse las normales a la superficie en cada vértice de un polígono. esto se logra promediando las normales a la superficie para cada polígono que contiene el punto de vértice, como se muestra en la siguiente figura. estos vectores normales de los vértices se utilizan entonces en el modelo de sombreado para generar los valores de intensidad de los vértices.
Un ejemplo de un objeto de sombreado con el método de Gouraud.
El sombreado de phong primero interpola los vectores normales en los puntos limite de una línea de rastreo. puede hacerse mejoras a los modelos de sombreado de gouraud determinando la normal aproximada a la superficie en cada punto a lo largo de una línea de rastreo y calculando después la intensidad mediante el uso del vector normal aproximado en ese punto.
COMO USAR LA ILUMINACION Y SOMBREADO CON PCONPLANER
pCon.planner es una aplicación profesional, fácil de utilizar en la planificación de espacios, configuración y creación de presupuestos utilizada por los fabricantes líderes en mobiliario de oficina y del hogar y por distribuidores de todo el mundo. La versión gratuita es una versión de la aplicación que permite trabajar sin limitaciones de tiempo, así como también abrir y guardar archivos.
Industrias.
pCon.planner es utilizado actualmente en muchas industrias. Cuando necesite configurar, visualizar, presupuestar y comunicar propuestas y conceptos pCon.planner puede agregar inmenso valor.
Sombreado e iluminación con PconPlaner...
ILUMINACION.
El uso correcto de los recursos de luz, junto con las innumerables opciones de renderizado, permite la creación de imágenes atractivas. Podrá observar todos los recursos de iluminación disponibles activando la capa „Mostrar Iluminación“, que estará activada por defecto.
Predeterminada. Cuando cargue un dibujo pCon.planner aplica fuentes de iluminación predeterminada. Esto apunta a garantizar una iluminación básica de su proyecto. La iluminación por defecto consiste en tres luces direccionales en las direcciones X, Y y Z.
Foco. Proyecta un cono de luz en su proyecto.
La aplicación de una luz de foco es versátil.
Direccional. Proyecta un rayo de luz paralela en su proyecto. Aplica luz consistente a toda la planificación.
Punto de luz. Emite una luz en un ángulo de 360° desde la fuente de luz en todas las direcciones.
Principalmente se utiliza para iluminar determinados objetos.
CONCLUSION......
Es una región de oscuridad donde la luz es obstaculizada. Una sombra ocupa todo el espacio detrás de un objeto opaco con una fuente de luz frente a él. La sección eficaz de una sombra es una silueta bidimensional una proyección invertida del objeto que aspira la luz.
Existen grados intermedios de sombra y luz entre las superficies completamente iluminadas y la completa oscuridad: la penumbra.
La iluminancia o nivel de iluminación se define como el flujo luminoso que incide sobre una superficie. Su unidad de medida es el Lux.
UNIDAD 5. AREAS RELACIONADAS A LA GRAFICACION
5.1 Procesamiento de imágenes
En el procesamiento digital de imágenes se distinguen dos niveles principales de manera general:
- Procesamiento de imágenes a bajo nivel
- Muy poco uso de conocimiento respecto al contenido de las imágenes.
- Comúnmente se reconoce una secuencia de cuatro para el procesamiento a bajo nivel: adquisición de la imagen, pre-procesamiento, segmentación de la imagen, descripción y clasificación de objetos.
- Entendimiento de imágenes a alto nivel
- Existe la capacidad de realizar toma de decisiones respecto al contenido de las imágenes.
El procesamiento de imágenes está dado por un conjunto de operaciones llevadas a cabo sobre las imágenes a fin de realizar mediciones cuantitativas para poder describirlas.
Una característica es un atributo usado para hacer decisiones respecto a objetos en la imagen. Algunos atributos son naturales y se definen mediante la apariencia visual de la imagen, los artificiales, son el resultado de operaciones realizadas a la imagen.
Una imagen f(x,y) está dada por sus coordenadas espaciales y su brillo, y es representada matemáticamente en una matriz.
Las herramientas para la adquisición de imágenes transforman la imagen visual de un objeto físico y sus características intrínsecas en un conjunto de datos digitalizados, usados para procesarla.
El procesamiento digital de imágenes tiene diversas aplicaciones y problemas:
- Representación
- Transformación
- Modelado
- Restauración
- Reconstrucción
- Análisis
- Comprensión de datos
Se define como ruido cualquier entidad en las imágenes, datos o resultados intermedios que no son interesantes para la computación que se pretende llevar a cabo.
Las técnicas de filtraje son transformaciones de la imagen píxel a píxel, que dependen de los niveles de gris de los píxeles vecinos en la imagen original. El proceso de filtraje se realiza utilizando matrices denominadas máscaras, que son aplicadas sobre la imagen. Los filtros sirven para suavizar o realzar detalles de la imagen, o minimizar efectos de ruido.
Filtro gaussiano. Este filtro implementa máscaras que intentan imitar la forma de una gaussiana: G(x,y) = e - (x + y)² / 2σ², donde x, y son las coordenadas de la imagen y sigma una desviación estándar de la probabilidad de distribución asociada.
Filtro mediana (rango de vecindades). El objetivo del filtro mediana es reducir el empañamiento de los bordes. Este filtro reemplaza el píxel actualmente analizado en la imagen por la mediana del brillo con respecto a los vecinos más cercanos.
Filtro de suavizado direccional (preservación de bordes). La eliminación de ruido mediante suavizado distorsiona la información con respecto a los bordes. Que se calcula en varias direcciones según la ecuación:
I’ (x,y) = 1/Nθ(k,l)∈EθΣΣ I(x-k, y-l).
Filtro de suavizado conservador. Esta técnica de reducción del nivel de ruido emplea un algoritmo de filtración simple y rápido que sacrifica su poder de eliminación de ruido a cambio de preservar el detalle espacial de la frecuencia en una imagen, removiendo píxeles aislados con un valor muy alto o muy bajo.
Realce de contraste. Tiene como objetivo mejorar la calidad de las imágenes bajo ciertos criterios subjetivos del ojo humano. El contraste entre dos objetos se puede definir como la razón entre sus niveles de gris medios. La manipulación de contraste consiste en una transferencia radiométrica en cada píxel.
Filtro paso bajo es empleado para remover ruido de alta frecuencia espacial en una imagen digital. La reducción del ruido mediante el filtro de paso bajo se lleva a cabo mediante una cancelación de las variaciones más rápidas entre píxel y píxel.
Filtro paso alto opera mediante el análisis de los valores de cada píxel y cambiando estos de acuerdo a los valores de los píxeles vecinos. El filtro paso alto realza detalles de la imagen.
Filtro SUSAN (Smallest Univalue Segment Assimilating Nucleus). Preserva la estructura de la imagen alisando únicamente sobre los píxeles que se encuentran dentro de la región del píxel analizado (píxel central). Este filtro integra los mejores aspectos de los métodos de reducción de ruidos existentes incluyendo la preservación de bordes.
En el análisis de objetos dentro de las imágenes resulta esencial distinguir entre el objeto de interés y el resto de la imagen. Una de las técnicas más conocidas es la segmentación mediante la detección de bordes.
La detección de bordes es la aplicación de un algoritmo con esté proposito que dará como resultado un contorno. Su objetivo es obtener imágenes cuya salida muestre píxeles de mayor intensidad en los valores que detecten transiciones cercanas.
Alguno de los algoritmos de detección de bordes más comunes son:
Técnicas basadas en el gradiente: Operador de Roberts, Operador de Sobel, Operador de Prewitt, Operador Isotrópico.
Operadores basados en cruces por cero: Operador de Marr-Hildreth, Detector de Canny.
Los operadores basados en el gradiente son píxeles con un alto gradiente. Un rápido índice de cambio de intensidad dada por el ángulo del vector gradiente puede observarse en los píxeles de los bordes.
Un píxel de borde se describe por: Intensidad del borde (magnitud del gradiente) y dirección del borde (ánglo del gradiente).
Operador de Roberts. Utiliza las direcciones diagonales para calcular el vector gradiente mediante máscaras.
Operador de Sobel. Calcula la magnitud del gradiente mediante: M√ sx² + sy²
Operador de Prewitt. Expande la definición del gradiente en una máscara de 3x3 para se más inmune al ruido, utiliza la misma ecuación que Sobel, pero con constante c = 1.
Operador Isotrópico. Intenta llegar a un equilibrio entre operador Prewitt y Sobel. Prewitt proporciona detección para bordes verticales y horizontales, y Sobel detección de bordes diagonales.
5.2.Visión por computadora
La visión es un medio para un fin – conocer el mundo observándolo – la visión artificial tiene como medio para adquirir el conocimiento un instrumento de cómputo. El tema de visión artificial es extenso: los asuntos tales como la restauración de imágenes, mejoramiento de imagen, inspección visual automatizada, visión robótica, escenas tridimensionales, y percepción y cognición visual todas forman parte del término “Visión artificial”.
Los primeros experimentos de cómputo para desarrollar sistemas artificiales para la visión de máquinas comenzaron con amplia variedad en grados de complejidad, han sido usados en muchas áreas diversas tales como ofimática, medicina, detección remota por satélite, y en el mundo industrializado y militar. Los usos han sido muchos y variados.
A la visión artificial le compete estudiar la estructura física tridimensional del mundo para el análisis automático de imágenes.
Las imágenes son imágenes digitales: son representaciones discretas (es decir, ellas tienen valores distintos en los puntos regularmente muestreados) y son representaciones cuantificadas (es decir, cada valor es un valor del número entero).
La visión artificial incluye muchas técnicas que son útiles para si mismas. Más significativamente, sin embargo, la visión artificial se refiere al procesamiento de imágenes, estas imágenes son solamente la materia prima de una ciencia mucho más amplia, la misma que se esfuerza en última instancia para emular las capacidades perceptivas del hombre, y para verter una luz sobre la manera por la cual él logra su interacción adaptativa y robusta con su ambiente.
5.3.Animación por computadora
La animación es la simulación de un movimiento, creada por una serie de imágenes o cuadros.
La animación por computadora se puede definir como un formato de presentación
de información digital en movimiento a través de una secuencia de imágenes o cuadros creadas o generadas por la computadora.
Características de la Animación 3D
La animación por computadora permite crear escenar “realmente” tridimensionales, en una escena animada por computadora es posible cambiar el ángulo de la cámara y ver otra parte de la escena. Se pueden reutilizar partes de la animación por separado.
Una animación se ve más realista si variamos el peso y el tamaño de los objetos. Para cambiar el peso es necesario cambiar el tiempo que tarda en moverse. Mientras más pesado su masa es mayor y es necesario aplicar mayor fuerza para moverlo.
Es necesario pensar en la forma como se moverán los objetos. Cada movimiento se realiza por una razón. Es necesario conocer las formas en que actúan los cuerpos.
En la animación en tres dimensiones debe considerarse la forma en que se detiene los cuerpos. Al animar a un personaje es conveniente que si se va a detener, alguna parte de su cuerpo se siga moviendo ligeramente, como la cabeza o un brazo.
Hay tres fases que componen una acción: La anticipación de la acción, la acción en sí y la reacción a la acción.
Técnicas de animación
La animación en acetatos (cel animation), la animación basada en cuadros (flipbook animation) y la animación en sprite.
Animación Basada en Cuadros
Para hacer una secuencia, se van filmando las imágenes cuadro por cuadro y luego estos se unen para formar la animación. Es posible formar bibliotecas de movimientos de cada parte del cuerpo de la animación para de esta forma combinarlas y hacer animaciones diferentes.
Animación Basada en Sprites
Se refiere a animaciones de objetos sobre fondos estáticos, es decir, lo que cambia son los personajes.
Key Framming
Se refiere a establecer posiciones en puntos específicos de tiempo en una animación y la parte intermedia la obtiene la computadora por medio de interpolación matemática.
Rotoscopiado
Se obtienen la posición y el ángulo de los puntos clave de imágenes reales y se trata de hacer converger los modelos en computadora con ellos.
Motion Control
Consiste en obtener posiciones clave de manera automática a partir de un actor real por medio de dispositivos que se conectan a su cuerpo.
Wavelets
Significa “pequeñas ondulaciones”. Esta técnica permite que en una sola imagen se compriman una gran cantidad de datos para que al acercarse a ella, se vayan viendo los detalles.
Técnicas de Pixar
El proceso que utiliza Pixar [12] para crear sus animaciones se compone de cuatro etapas principales: Desarrollo (crear el guión de la historia), preproducción (se direccionan los retos técnicos), producción (creación de la película) y post producción (pulir los últimos detalles).
Suscribirse a:
Comentarios (Atom)









































