martes, 29 de mayo de 2007

Previo - Práctica 10

Animación esqueletal

Esta técnica de animación por computadora es particularmente usada en la animación de vertebrados, en donde un personaje esta representado en dos partes: una representación superficial usada para dibujar al personaje (llamada piel) y una construcción jerárquica de huesos usada sólo para la animación: a esto se le llama el esqueleto.

Dicha técnica es usada construyendo una serie de “huesos”. Cada hueso tiene una transformación en tres dimensiones, la cual incluye su posición, escala y orientación además de un hueso opcional padre. De esta manera, los huesos forman una jerarquía. La trasformada completa de un nodo hijo es el producto de su transformada padre y de su propia transformada. Esto se refiere a que al mover el hueso del muslo también moverá el hueso de la pantorrilla, por ejemplo. Conforme el personaje es animado, los huesos cambian su transformación mientras pasa el tiempo, bajo la influencia de algunos controles de animación.

Cada hueso del esqueleto esta asociado con alguna porción de la representación visual del personaje. En el caso más común de un personaje poligonal de malla, ésta está asociada con un grupo de vértices; por ejemplo, en un modelo de un ser humano, el hueso del muslo estará asociado con los vértices que hacen el polígono del modelo del muslo. Porciones de la piel del personaje pueden ser asociadas con múltiples huesos, cada uno teniendo un factor de escala llamado peso del vértice, o peso de la mezcla. El movimiento de la piel cercana a las articulaciones: pueden, por lo tanto, ser influenciados por los dos huesos.

Para una malla poligonal, cada vértice puede tener un peso de mezcla para cada hueso. Para calcular la posición final del vértice, cada transformada de hueso es aplicada a la posición del vértice escalada por su correspondiente peso. Este algoritmo se llama matriz de paleta de piel, porque el conjunto de transformadas de hueso, almacenadas como matrices de trasformadas, forman una paleta para cada vértice de la piel para ser elegidas.

La animación esqueletal es útil porque permite a los animadores controlar únicamente aquellas características del modelo que se mueven independientemente. Un personaje no puede mover su parte inferior de la espinilla independientemente de la parte superior. Por el contrario: hace una animación vértice por vértice y sólo se moverá el hueso y los vértices relacionados a éste. La desventaja de este tipo de animación es que no provee una animación realista de los músculos. Para resolver este problema, se agregan controles especiales del músculo los cuales son adjuntados a los huesos, todo esto para representar el movimiento completo del músculo.

La animación esqueletal es una forma estándar de animar personajes u objetos mecánicos por un tiempo prolongado, generalmente mas de 100 cuadros. Generalmente es usado en videojuegos y en la industria cinematográfica. También puede ser aplicada a objetos mecánicos y cualquier otro objeto que tenga elementos rígidos y junturas.


FBX

FBX provee un intercambio universal de recursos en 3D. Éste es un formato de creación e intercambio de 3D, independiente de la plataforma y completamente gratuito (pero no libre). El formato de archivo FBX admite los principales elementos de datos en 3D, así como elementos en 2D de audio y de medios de video.

En si, FBX es un formato combinado entre binario y código ASCII. Por ello, puede soportar, almacenar, convertir y transportar complejas escenas en 3D combinadas con 2D. A continuación se presentan algunos ejemplos:

· Mallas poligonales y NURBS

· Mapeo de texturas y materiales

· Vértices normales y mapeo de colores por vértice

· Enlaces a los puntos de control

· Múltiples cámaras e intercambio de cámaras

· Múltiples tipos de luces

· Marcadores

· Segmentos de esqueleto (raíz, extremidades y nodos de extremidades)

· Varias tomas en animaciones MOCAP

· Posiciones enlazadas en una lista de nodos

· Clips de video (incrustado o referenciado)

· Clips de audio (incrustado o referenciado)

· Shaders

Formato X

El formato X es el formato de archivo de DirectX, este formato es una arquitectura y un formato de archivo libre de contexto. Es conducido por plantillas y es libre de cualquier uso. El formato de archivo podrá ser usado por cualquier aplicación de cliente y actualmente está siendo usado en Direct3D Retained Mode para describir los datos de geometría, jerarquía de cuadros y animación.

El formato .X almacena todo en un método jerárquico. Cada nivel de la jerarquía puede tener cualquier número de “objetos” para mantener datos, pero es recomendable solo tener un número pequeño de objetos por cada nivel. El objeto principal del modelo de jerarquía geométrica es un cuadro. Para animaciones, el objeto principal de la jerarquía es una set de animación.

Fuentes:

http://en.wikipedia.org/wiki/Skeletal_animation
http://images.autodesk.com/emea_s_main/files/fbx_whitepaper.pdf
http://local.wasp.uwa.edu.au/~pbourke/dataformats/directx/

martes, 22 de mayo de 2007

Previo - Práctica 9

1. Investigue acerca de los métodos manuales de animación

- Key frames (cuadros llave)

- Forward Kinematics (cinemática directa)

- Inverse Kinematics (cinemática inversa)

- Motion capture (captura de movimiento)

KEY FRAMES – En animación, los key frames son dibujos que son esenciales para definir puntos de inicio y de fin de cualquier suave transición. Se les llama “frames” (marcos) porque su posición en el tiempo se mide en marcos en un fragmento de filme. Una secuencia de key frames define cuál movimiento verá el espectador, mientras que la posición de los key frames en el filme, video o animación definen el tiempo del movimiento. Como sólo dos o tres key frames sobre la extensión de un segundo no crea la ilusión de movimiento, los frames restantes son llenados con más dibujos, llamados “inbetweens” (intermedios).

FORWARD KINEMATICS – Éste es un método de graficación por computadora en 3D para animar modelos.

El concepto esencial de la animación por cinemática directa es que las posiciones de partes particulares del modelo en un momento especificado son calculadas desde la posición y la orientación del objeto, junto con cualquier información sobre las articulaciones de un modelo con tal atributo. Por ejemplo, si el objeto a ser animado es un brazo con un hombro que debe permanecer en una posición fija, la localización de la punta del pulgar sería calculada desde los ángulos de las articulaciones del hombro, codo, muñeca, pulgar y de los nudillos. Tres de dichas articulaciones (el hombro, la muñeca y la base del pulgar) tienen más de un grado de libertad y deben de ser tomados en cuenta. Si el modelo fuera una figura humana entera, entonces la localización del hombro también tendría que ser calculada desde otras propiedades del modelo.

INVERSE KINEMATICS – La cinemática inversa es el proceso de determinar los parámetros de un objeto articulado y flexible (una cadena cinemática) con tal de lograr una posición deseada. Por ejemplo, con el modelo en 3D de un cuerpo humano, ¿cuáles son los ángulos de la muñeca y el codo requeridos para mover la mano de una posición en reposo a una posición de saludo? Esta pregunta es vital en la robótica, donde los brazos manipuladores son comandados en términos de los ángulos de las articulaciones. La cinemática inversa también es relevante para la programación de videojuegos y la animación 3D, donde un uso común es asegurarse de que los personajes del juego se conecten al mundo físicamente, tal como lo que es aterrizar los pies firmemente sobre terreno, alinear las manos con perillas, etc.

Una figura articulada consiste en un conjunto de segmentos rígidos conectados por articulaciones. El variar los ángulos de las articulaciones provee un número infinito de configuraciones. La solución al problema de animación por cinemática directa, dados estos ángulos, es la pose de la figura. La solución más complicada al problema de la cinemática inversa es hallar los ángulos de articulación dada la configuración deseada de una figura. En los casos generales, no hay una solución analítica para el problema de cinemática inversa. Sin embargo, la cinemática inversa puede ser solucionada a partir de técnicas de programación no lineales. Ciertas cadenas cinemáticas especiales – aquellas con una muñeca esférica – permiten una separación cinemática.

MOTION CAPTURE – La captura de movimiento es una técnica para grabar digitalmente movimientos. Se utiliza en la industria del entretenimiento, en los deportes y en la medicina.

Comenzó como una herramienta de análisis fotogramético en investigaciones de biomecánicas en los 1970s y 1980s y se expandió a la educación, entrenamiento de deportes y, recientemente, a la animación por computadora para el cine y los videojuegos, al madurar la tecnología. Un actor utiliza marcadores cerca de cada articulación para identificar el movimiento de las posiciones o los ángulos entre marcas. Las marcas acústicas, inerciales, LED, magnéticas o de reflexión son rastreadas, óptimamente al menos con un índice de al menos el doble del movimiento deseado, a posiciones submilimétricas. El software de computadora de captura de movimiento graba las posiciones, los ángulos, las velocidades, aceleraciones e impulsos, proveyendo así una muy acertada aproximación digital del movimiento.

Existen diversos sistemas de captura de movimiento:

  • Sistemas ópticos: triangulan la posición en 3D de una marca entre dos o más cámaras calibradas para proveer proyecciones superpuestas. El rastrear un gran número de marcas o de múltiples actores o el expandir el área de captura se logra con la adición de más cámaras. Estos sistemas producen información con 3 grados de libertad para cada marca, y información rotacional debe ser inferida desde orientación relativa de tres o cuatro marcas; por ejemplo, las marcas para el hombro, el codo y la muñeca dado el ángulo del codo.
  • Sistema óptico pasivo: utilizan marcadores revestidos con material retro-reflexivo que se genera cerca de los lentes de las cámaras. La sensibilidad de las cámaras puede ser ajustada aprovechando el rango estrecho de la mayoría de las cámaras de la sensitividad de la luz para que tan sólo los marcadores brillantes sean capturados, ignorando la piel y la vestimenta.
  • Marca óptica activa por modulación: los sistemas de marcas activas pueden ser refinados todavía más al encender una marca en un momento o rastrear marcas múltiples en un periodo de tiempo y modulando la amplitud o el ancho de pulso para proveer una identificación para cada marca. Una resolución de sistemas modulados espaciales de 12 mega-píxeles muestra movimientos más sutiles que sistemas ópticos de 4 mega-píxeles puesto que tiene resoluciones temporal y espacial más altas. Los directores pueden ver la actuación de los actores en tiempo real y ver los resultados con un personaje generado por computadora. Los identificadores particulares de cada marca reducen las vueltas eliminando el canjeado de marcas y proveyendo información más limpia que otras tecnologías.
  • Marca óptica activa: los sistemas de marca activa óptica triangulan las posiciones iluminando un LED a la vez muy rápidamente o múltiples LEDs. El software sofisticado para identificarlos por sus posiciones relativas es similar a la navegación celestial. En vez de reflejar luz que se genera externamente, las marcas por sí mismas tienen la capacidad de emitir su luz propia. Ya que la ley de cuadrado invertido provee 1/4 de potencia al doble de la distancia, esto puede incrementar las distancias y el volumen de la captura.
  • Sistemas Internos: la tecnología de captura de movimiento interno se basa en sensores inerciales miniatura, modelos biomecánicos y algoritmos de fusión de sensores. Es un método barato y fácil de utilizar para la captura de movimiento de un cuerpo humano entero. La información de movimiento de los sensores inerciales (sistema de guía inercial) se transmite inalámbricamente a una PC o Laptop, donde el movimiento de cuerpo completo se graba o se ve. No hay cámaras externas, emisores o marcas que se necesiten para movimientos relativos, pero para posiciones absolutas, se utilizan sistemas ópticos o magnéticos externos. Los sistemas de captura de movimiento inerciales toman los 6 grados de libertad de movimiento de cuerpo de un humano en tiempo real.
  • Moción mecánica: estos sistemas rastrean ángulos de articulación del cuerpo directamente y con frecuencia se les llama sistemas de captura de movimiento de exoesqueleto, debido al modo en que los sensores se ajustan al cuerpo. El actor viste una estructura que parece ser un esqueleto sobre su cuerpo y conforme se mueven, también lo hacen las partes mecánicas articuladas, midiendo el movimiento relativo del actor. Los sistemas de captura de movimiento mecánicos son hechos en tiempo real, son relativamente baratos, libres de oclusión e inalámbricos que tiene un volumen de captura ilimitado.
  • Sistemas magnéticos: calculan la posición y la orientación por su flujo magnético relativo de tres bobinas ortogonales en el transmisor y cada receptor. La intensidad relativa de voltaje o corriente en las tres bobinas le permite a estos sistemas calcular la distancia y la orientación al trazar mapas meticulosos del volumen de rastreo. En particular, estas marcas no son ocluidas por objetos no metálicos, pero son susceptibles a interferencias magnéticas y eléctricas de objetos de metal en el ambiente, como barras de acero en el concreto o cableado, los cuales afectan el campo magnético y las fuentes eléctricas tales como monitores, luces, cables y computadoras. La respuesta del sensor no es lineal, especialmente hacia los extremos del área de captura. El cableado desde los sensores tiende a excluir movimientos extremos.
  • Captura de actuación: esta técnica difiere de la captura de movimiento estándar debido a la naturaleza interactiva de la actuación, capturando el cuerpo, las manos y las expresiones faciales al mismo tiempo, de modo opuesto a capturar datos para referencia de movimiento y editar los movimientos después. El actor generalmente interactúa con modelos de objetos en la escena. La información de actuación puede ser utilizada para animar diferentes actores.

2. Discuta acerca de las ventajas/desventajas de cada método y dé ejemplos (al menos dos) de situaciones en las que cada uno esté mejor aplicado.

KEY FRAME

Ventajas:

  • El animador tiene control total sobre la animación

Desventajas:

  • Es difícil establecer interacciones realistas.
  • Es difícil especificar ambientes dinámicos grandes.

Ejemplos: muy utilizado en animaciones por Flash; se utiliza en las caricaturas.

FORWARD KINEMATICS

Ventajas:

  • El movimiento del modelo se define directamente por el animador: no es necesario tomar en cuenta leyes físicas que podrían afectar al modelo, tal como lo sería la gravedad y las colisiones.

Desventajas:

  • Cada movimiento de cada componente debe ser cuidadosamente planeado.

Ejemplos: son ampliamente utilizadas en robótica; animaciones por computadora en 2D y 3D.

INVERSE KINEMATICS

Ventajas:

  • Tan sólo se requieren la posición inicial y final de un miembro para el flujo de la animación

Desventajas:

  • Los miembros del personaje hecho a computadora deben de tener límites antropomórficos razonables.

Ejemplos: al igual que con la cinemática directa, son ampliamente utilizadas en robótica; animaciones por computadora en 2D y 3D.

MOTION CAPTURE:

Ventajas:

  • Se obtienen resultados más rápidos, incluso de tiempo real.
  • La cantidad de trabajo no varía con la complejidad o la longitud de la actuación como cuando se utilizan técnicas tradicionales.
  • El movimiento complejo y las interacciones físicas realistas tales como la animación secundaria, el peso y el intercambio de fuerzas puede ser recreado más fácilmente en un modo físico muy acertado.
  • Permite que un actor desempeñe varios papeles dentro de un solo filme.

Desventajas:

  • Se requiere de hardware y programas específicos para obtener y procesar la información.
  • El costo del software, el equipo y el personal requeridos son muy prohibitivos para producciones pequeñas.
  • El sistema de captura puede tener requerimientos específicos para el espacio en el cual se opere.
  • Cuando ocurren problemas es a veces más fácil volver a filmar la escena que tratar de manipular los datos. Tan sólo unos pocos sistemas permiten ver la información en tiempo real para decidir si la toma necesita ser filmada otra vez.
  • El aplicar movimientos a caracteres cuadruplicados puede ser difícil.
  • La tecnología puede volverse obsoleta cada cierto tiempo debido a la invención de mejor software y técnicas.
  • Los resultados están limitados a lo que se puede actuar dentro del volumen de captura sin edición extra de la información.
  • El movimiento que no siga las leyes de la física generalmente no puede ser representado.
  • Las técnicas de animación tradicionales tales como énfasis añadido en la anticipación y el seguimiento, movimiento secundario o la manipulación de la forma del personaje con animación de aplastar y estirar no son, por lo general, aplicables.
  • Si el modelo de computadora tiene proporciones diferentes del sujeto de captura, pueden ocurrir artificios. Por ejemplo, si una caricatura tiene manos enormes, éstas pueden intersecarse de modo extraño con otra parte del cuerpo cuando el actor humano las pone muy cerca de su cuerpo.
  • La actuación real podría no traducirse al modelo de computadora como es deseado.

Ejemplos: se usa en la industria cinematográfica (por ejemplo: Final Fantasy: Spirits Within); en los videojuegos (por ejemplo: Soul Calibur).

3. Investigue qué método de animación usan los modelos de Quake y de Unreal Tournament. Busque código que utilizando OpenGL permita visualizar un modelo de éstos juegos y ejecútelo.

UNREAL TOURNAMENT

  • Utiliza un sistema de animación de esqueleto que soporta hasta cuatro influencias de hueso por vértice y esqueletos complejos.
  • Soporte LOD completo para mallas y huesos.
  • Herramienta de AnimSet Viewer para animaciones de organización y búsqueda y mallas:
    • Habilidad para añadir notificaciones específicas al juego en puntos específicos de la animación.
    • Herramientas para colocar ‘Sockets’ gráficamente en los huesos a ser usados para adjuntar objetos al esqueleto en el juego, completo con vista previa.
    • Habilidad ver previamente mallas revestidas basadas en el mismo esqueleto (por ejemplo, armadura).

· La animación es guiada por un “AnimTree” – un árbol de nodos de animación, que incluye:

o Controles mezclados, que desempeñan una mezcla de n modos entre objetos de animación anidada.

o Controles manejados por datos, encapsulando captura de movimiento o información de animación a mano.

o Controles de física, atando el motor de dinámicas de cuerpo rígido para un jugador de “muñeco de trapo” y animación NPC y respuesta física a impulsos.

o Controles de procedimiento de esqueleto, para características del juego, como el tener un la cabeza y los ojos del NPC rastrear al jugador que camina por un nivel.

o Una herramienta que resuelve cinemática inversa para calcular las posiciones del miembro basadas en localizaciones globales (por ejemplo, colocación de pies).

· AnimTree Editor le permite a los programadores o animadores crear mezclas complejas y ajustes de controles para tener una vista previa de ellos en tiempo real en el editor.

· Los tipos de nuevo nodo y de controlador pueden ser añadidos fácilmente para un control específico del juego.

· Herramientas de exportación para 3D Studio Max, Maya y XSI para traer mallas con peso, esqueletos y secuencias de animación al motor.

QUAKE

El motor de Quake (III) carga modelos en 3D en formato MD3. El formato utilizaba vértices de movimiento, contrario a la animación de esqueleto usada para guardar la animación. Las características de animación en el formato MD3 son superiores a las del formato MD2 usado en Quake II, porque un animador puede hacer que el número de key frames por segundo sea menor y mayor que 10 key frames por segundo. Esto permite animaciones más complejas que son menos “temblorosas” que los modelos de Quake II.

Otra característica importante del formato MD3 es que los modelos se descomponen en 3 partes diferentes ancladas la una a la otra. Típicamente, esto se usa para separar la cabeza, el torso y las piernas para que cada parte se pueda mover independientemente en bien de una animación de procedimiento. Cada parte del modelo tiene su propia serie de texturas.

Los modelos de personajes están iluminados y sombreados utilizando sombreado de Gouraud mientras que los niveles (almacenados en formatos BSP) se iluminan ya sea con mapas de luz o sombreado de Gouraud dependiendo de la preferencia del usuario. El motor es capaz de tomar luces de colores del alambrado de luces y aplicarlo a los modelos, resultando en una calidad de luz, la cual fue, para su época, muy avanzada.

El motor es capaz de reproducir tres tipos de sombras. Uno sólo coloca un círculo con extremos desvanecidos en los pies del personaje, mientras que las otras dos modalidades proyectan una sombra poligonal acertada en el piso. La diferencia entre las últimas dos modalidades es la dependencia de sombras negras, opacas y sólidas mientras que el otro tipo intenta (con éxito mezclado) proyectar sombras de volumen de sombra estarcido de profundidad en un medio transparente negro.

Otras características incluyen lenguajes de sombras de alto nivel y un método para desplegar niebla.

Fuentes:

  • http://en.wikipedia.org/wiki/Key_frame
  • http://www.cs.jhu.edu/~cohen/RendTech99/Lectures/Computer_Animation.color.pdf
http://www.unrealtechnology.com/html/technology/ue30.shtm

lunes, 14 de mayo de 2007

Tarea 8

Pseudocódigo para relleno de polígonos por barrido.

El llenado de polígonos por línea de barrido es un método relativamente fácil para rellenar un polígono.

Básicamente, el método consiste en :

Recorrer las líneas de barrido desde y=0 hasta y=YMAX (donde YMAX es la máxima coordenada y que se puede encontrar en la pantalla, 480)

Determinar las intersecciones de la línea de barrido con las aristas del polígono, variando x desde 0 hasta XMAX(640).

Para ello se utiliza una función que indica si el pixel actual está iluminado o no con el color de la frontera.

Llamemos bitpantalla a esta función :

La intersección del lado izquierdo del polígono se etiqueta como xinicio y xfin representa al intersección con el lado derecho. Luego se traza una línea linea(xinicio, y, xfin, y, color)

Recorrer las líneas de barrido desde y=0 hasta y=YMAX (donde YMAX es la máxima coordenada y que se puede encontrar en la pantalla.

Determinar las intersecciones de la línea de barrido con las aristas del polígono, variando x desde 0 hasta XMAX. Para ello se utiliza una función que indica si el pixel actual está iluminado o no con el color de la frontera.

Llamemos bitpantalla a esta función:

int bitpantalla (int x, int y)
{
return getpixel(x, y);
}

La intersección del lado izquierdo del polígono se etiqueta como xinicio y xfin representa al intersección con el lado derecho. Luego se traza una línea

linea(xinicio, y, xfin, y, color)

Algoritmo:

Para cada línea de barrido (y=0,..., YMAX) hacer

1. inicializar x=0
2. mientras (bitpantalla <> color de frontera)
x=x+1
3. xinicio=x
4. mientras (bitpantalla <> color de frontera)
x=x+1
5. xfin=x
6. linea (xinicio, y, xfin, y, color)



Fuente de Consulta para la tarea:
http://www.inf.unitru.edu.pe/~vncc/documentos/clases/cg1-u31.pdf

Tarea 7, reposición

Refracción especular o Componente Especular de la Luz


Es la que procede de una dirección concreta y se refleja en una
única dirección, de manera que produce brillos intensos en ciertas zonas.
Es el caso, por ejemplo, de los objetos metálicos.

Cada foco de luz que incluyamos en la escena tiene tres componentes: luz ambiental, luz difusa y luz especular. La proporción de cada componente determina el tipo de luz. Por ejemplo, un láser esta casi totalmente formado por luz especular. Su fomulación matemática se representa bajo las Leyes de refracción especular:


El rayo refractado se encuentra localizado en el mismo plano que el incidente (-L) y la normal (N), tomando la ley de Snell para el ángulo del rayo transmitido:

ni sen α=nt sen β

donde,
ni , nt : son los índices de refracción en medios de rayo incidente y transmitido
α β: son los ángulos de rayo incidente y rayo transmitido con la normal

Rayo transmitido:



que es el índice de refracción relativo y calculando el factor de incidencia




La intensidad aproximada se calcula con :



donde,
krs : es el coeficiente de refractividad especular
k : es el exponente de rugosidad (coarsiness): aproxima transparencia imperfecta

También se pueden considerar efectos de distancia, como en la reflexión
Hay un valor de Its , Ip y krs para cada componente de color (RGB)
Existencia de filtros:



que es el rayo transmitido en dirección a ojo
Se debe considerar a la normal tal que:
; este tipo de rayo de luz puede ir hacia dentro de objeto en el caso de estudiar refracción de salida del objeto, cosa que se ve en la asignatura de Optica.

martes, 8 de mayo de 2007

Previo - Práctica 8

1. Investigar como crear y definir una fuente de luz con OpenGL

- Creación de la luz

- Cuantas luces se pueden definir

- Parámetros de la fuente de luz

- Tipos de luces

- Color de la luces

- Habilitación, deshabilitación de luces.

- Luz por default y características por default

Para la iluminación de una escena se debe hacer lo siguiente:

- Definir los vectores normales para todos los vértices de los objetos.

- Colocar las fuentes de luz.

- Elegir el tipo de luz.

- Escoger el tipo de material de cada objeto.

Primero se ejecuta el comando glEnable( GL_LIGHTING ): con esto se activan los cálculos de iluminación necesarios. En la definición estándar, hay 8 fuentes de luz, desde LIGHT0 a LIGHT7.

En OpenGL se pueden definir tres formas de luz distintas; éstas son: AMBIENTE, DIFUSA y ESPECULAR.

AMBIENTE: la luz llega de todas las direcciones de forma distribuida y es reflejada de igual forma por los polígonos de la escena.

DIFUSA: la luz llega de una fuente puntual en particular y toca la superficie con una intensidad que depende de la cara hacia la cual llega la luz. Este tipo de iluminación es la que mejor define el contorno en los objetos 3D

ESPECULAR.- es la luz emitida desde el objeto de forma distribuida en todas direcciones.

La luz tiene las propiedades de color, posición y dirección. El color que las luces tienen está determinado por las tres componentes de color que maneja OpenGL: rojo, verde y azul. El comando utilizado para especificar todas las propiedades de la luz es glLiht(); Éste comando tiene tres argumentos para identificar la luz que se está utilizando, la propiedad y el valor deseado para la propiedad.

Después de definir las características de las luces se encienden con el comando glEnable (nombre de la fuente de luz a activar). También existe una función para desactivar la iluminación, glDisable () y desactiva la luz especificada.

Las características de la luz por default para glLight son: GL_AMBIENT, GL_DIFFUSE, GL_SPECULAR, GL_POSITION, GL_SPOT_DIRECTION, GL_SPOT_EXPONENT, GL_SPOT_CUTOFF, GL_CONSTANT_ATTENUATION, GL_LINEAR_ATTENUATION, GL_QUADRATIC_ATTENUATION.

  • GL_DIFFUSE Y GL_ESPECULAR sólo se usan con la primera fuente de luz.
  • GL_AMBIENT: Define los valores de la luz ambiental. Valor RGBA, su valor por defecto es (0.0,0.0,0.0,1.0).
  • GL_DIFFUSE: Define los valores de la luz difusa. Valor RGBA. su valor por defecto es (1.0,1.0,1.0,1.0).
  • GL_SPECULAR: Define los valores de la luz especular. Valor RGBA. Su valor por defecto es (1.0,1.0,1.0,1.0).
  • GL_POSITION: Posición de la luz, en coordenadas { x, y, z, w }, su valor por defecto es (0.0,0.0,1.0,0.0).
  • GL_SPOT_DIRECTION: Vector de dirección de la luz, en coordenadas { x, y, z }, su valor por defecto es (0.0,0.0,-1.0).
  • GL_SPOT_EXPONENT: Representa la concentración de la intensidad de la luz. Valor escalar, por defecto 0.
  • GL_SPOT_CUTOFF: Ángulo del cono de luz. Valor escalar, por defecto 180.
  • GL_CONSTANT_ATTENUATION: Atenuación constante a aplicar a la luz según la distancia. Valor escalar, por defecto 1.
  • GL_LINEAR_ATTENUATION: Atenuación lineal a aplicar a la luz según la distancia. Valor escalar, por defecto 0.
  • GL_QUADRATIC_ATTENUATION: Atenuación cuadrática a aplicar a la luz según la distancia. Valor escalar, por defecto 0.

2. Investigue la diferencia entre luz e iluminación (light/lighting)

- Habilitacion/Deshabilitacion de la ilumnacion (¿Cómo?)

- ¿Para que hay que habilitar y desabilitar la iluminación?

La luz es un punto focal el cual ilumina los objetos en un cierto rango. Es un punto muy definido y fácil de encontrar; la iluminación da una intensidad de luz en un rango más amplio, dando la sensación de que no hay un punto focal donde la luz es emitida, la iluminación es un tipo de luz la cual no incide directamente en los objetos.

Para habilitar y deshabilitar a uno de los puntos de iluminación se utilizan los comandos glEnable (nombre_iluminación) y glDisable (nombre_iluminación). La fuente de luz es creada con glLightfv (GL_LIGHT0, GL_AMBIENT, luz ambiental).

3.- Investigue la definición de propiedades de material a una superficie

- Características de los materiales (difuso, especular, brillantez, emisividad, etc)

- ¿Como se definen?

- Sobre que cara(s) de un poligono se aplican los materiales

Dependiendo de las propiedades de los materiales la luz tiene un efecto distinto sobre ellos.

Éstas propiedades se definen con glMaterial:

void glMaterial (GLenum cara, GLenum nombre, TYPOparam);

El argumento cara, determina la cara del objeto en la que aplicamos las propiedades, tiene los siguientes valores:

GL_FRONT,GL_BACK,GL_FRONT_AND_BACK.

El siguiente indica la propiedad que va utilizarse para dicha cara, puede ser:

GL_AMBIENT, GL_DIFFUSE, GL_AMBIENT_AND_DIFFUSE, GL_SPECULAR, GL_SHININESS, GL_EMISSION, GL_COLOR_INDEXES.

El último parámetro especifica un puntero al valor o valores que el parámetro nombre tomara.

· GL_AMBIENT .- color ambiente del material, sus valores por defecto son (0.2, 0.2, 0.2, 1.0).

· GL_DIFFUSE .- color difuso del material, sus valores por defecto son (0.8, 0.8, 0.8, 1.0).

· GL_AMBIENT_AND_DIFFUSE .- color ambiente y difuso del material

· GL_SHININESS.- exponente especular, su valor por defecto es 0.

· GL_EMISSION.- el color de emisión del material, sus valores por defecto son (0.0, 0.0, 0.0, 1.0).

· GL_COLOR_INDEXES.- índice de color ambiente, difuso y especular, sus valores por defecto son (0, 1, 1).

4.- Investigar acerca del mapeo de texturas con OpenGL

- Carga, definición del bitmap.

- Transformaciones de la textura.

- Modos de Aplicación de una textura (repeat, wrap, etc.).

- Mapeo de la textura a una superficie.

El proceso de cargar la textura en memoria, no es propio de OpenGL. Se tiene que realizar una función externa. Existen algunas limitaciones que la librería impone. Las dimensiones de todas las texturas que carguen tienen que ser potencias de 2, como por ejemplo 64x64, 128x64, etc.

Se tiene que tener en cuenta que si se debe estar dibujando en RGB, sin color indexado, o bien cargando texturas en formato RGB. Si se carga una imagen GIF, que tiene color indexado, se tiene que programar una función extra para convertirla a RGB.. Sea cuál sea el método, al final se tendrá un puntero a un segmento de memoria que contiene la imagen:

unsigned char *textura;

Es importante también guardar las propiedades de la textura, en concreto sus dimensiones de ancho y alto, así como su profundidad en bits. Si estamos trabajando en RGB, la profundidad será 24bits.

Los pasos a seguir son:

· Determinamos el tamaño

· Calculamos la memoria que será necesaria

· Reservamos memoria

· Generación de archivo TGA el cual viene en formato RGB. Si no está en este formato se deberá realizar la conversión.

Una vez tenemos la imagen cargada en memoria, los pasos a seguir son:

· Generar la referencia para la textura. [glGenTextures (1, &textura);] Con el GLuint textura hacemos referencia a esa textura. Si se quiere tener más, se debe crear un arreglo de GLuint. El 1 significa que sólo generamos una textura.

· Hacemos referencia a esa textura: [glBindTexture (GL_TEXTURE_2D, textura);]. Esta función dice que ahora en adelante, todas las operaciones que afecten al manejo de texturas se aplicarán sobre esa textura. En este caso es una textura 2D

· Especificamos los filtros para esa textura:

o glTexParameteri (GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glTexParameteri (GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER,GL_LINEAR_MIPMAP_NEAREST);

· OpenGL puede aplicar filtros a las texturas para mejorar su visualización. La primer línea especifica el filtro a utilizar en caso de que las textura se vea más grande de lo que en realidad es (Aumento). La segunda, especifica el filtro para el caso de que la textura se vea más pequeña de lo que en realidad es. Aquí utilizamos un filtro LINEAR para el 1er caso y del segundo hablaremos más adelante. Otro valor que podríamos haber utilizado es el GL_NEAREST, que es un filtro peor pero más rápido

· Creamos la textura por medio de MIPMAPS para mejor rendimiento, en vez de filtrar las texturas dinámicamente, al crear un mipmap, creamos varias texturas de diferentes tamaños (del original hacia más pequeño). OpenGL, decidirá en función de lo lejano que esté el objeto con esa textura, de qué mipmap utilizar.

· Por ultimo, sólo hace falta habilitar el empleo de texturas con:
glEnable(GL_TEXTURE_2D);
En la función init_gl.

Para la generación de la imagen TGA en memoria. El TGA debe cumplir las siguientes características:

  • Ser de 24 bits
  • Canal ALPHA. (32 bits) y SIN COMPRIMIR
  • El tamaño debe ser cuadrado (x=y) y 32x32 o 64x64 o 128x128 o 256x256

Si se cumple todo lo anterior, devuelve un puntero a la imagen y el tamaño de la imagen

Para texturas ID

•Para definir la textura:

void glTexImage1D (GLenum objetivo, GLint nivel, GLint componentes, GLsizei ancho, GLint borde, GLenum formato, GLenum tipo, const GLvoid *pixels)

donde:

objetivo vale siempre GL_TEXTURE_1D

nivel indica el nivel de detalle (0 para texturas individuales)

componentes vale 1 (modo índice), 3 (RGB) ó 4 (RGBA)

ancho indica el ancho en pixel del mapa de textura (debe ser potencia de 2)

borde indica el número de pixels que forman el borde de la textura (0, 1 ó 2)

formato indica el formato de los pixels: GL_RED, GL_RGB, GL_LUMINANCE

tipo indica el tipo de dato de los pixels: GL_UNSIGNED_INT, GL_FLOAT

pixels es un puntero a los pixels de la textura

Mapeo para texturas 2D

•Para definir la textura:

void glTexImage2D (GLenum objetivo, GLint nivel, GLint componentes, GLsizei ancho, GLsizei alto, GLint borde, GLenum formato, GLenum tipo, const GLvoid *pixels)

donde:

objetivo vale siempre GL_TEXTURE_2D

nivel indica el nivel de detalle (0 para texturas individuales)

componentes vale 1 (modo índice o luminancia), 3 (RGB) ó 4 (RGBA)

ancho indica el ancho en pixels del mapa de textura (debe ser potencia de 2)

alto indica el alto en pixels del mapa de textura (debe ser potencia de 2)

borde indica el número de pixels que forman el borde de la textura (0, 1 ó 2)

formato indica el formato de los pixels: GL_RED, GL_RGB, GL_LUMINANCE

tipo indica el tipo de dato de los pixels: GL_UNSIGNED_INT, GL_FLOAT

pixels es un puntero a los pixels de la textura

En una superficie:

Al mapear la imagen de textura sobre una superficie, los texels no se van a corresponder exactamente con los pixels

Magnificación : Si la superficie es mayor que la textura, cada pixel se corresponderá con un trozo pequeño de texel

Minificación : Si la superficie es menor que la textura, cada pixel se corresponderá con una conjunto de texels contiguos

Modos de mapeo

Para establecer el modo de mapeo:

glTexEnvi (GL_TEXTURE_ENV, GL_TEXTURE_ENV_MODE, GLint valor)

donde valor puede tomar 3 valores:

GL_DECAL: el valor del texel se copia directamente al pixel

GL_MODULATE: el valor del texel se escala por el color del objeto

GL_BLEND: el valor del texel se usa para interpolar entre el color del objeto y un color constante definido para la textura, mediante la función

glTexEnvfv(GL_TEXTURE_ENV,GL_TEXTURE_ENV_COLOR,GLfloat color[4])

Gl texture wraps

Establece el parámetro wrap para la coordenada de textura s a GL_CLAMP, GL_CLAMP_TO_EDGE, o GL_REPEAT. GL_CLAMP causa que las coordenadas s estén limitadas al rango [0,1] y es útil para prevenir artefactos de envoltura (compresión?) cuando se mapea una única imagen en un objeto. GL_CLAMP_TO_EDGE causa que las coordenadas s se limiten al rango [1/2n, 1-(1/2n)i], donde n es el tamaño de la textura en la dirección del límite. GL_REPEAT causa que la parte entera de s se ignore; el GL utiliza solo la parte fraccionaria, creando por lo tanto un patrón repetitivo. Los elementos de textura de borde son accesados solo si la envoltura se establece a GL_CLAMP. Inicialmente, GL_TEXTURE­_WRAP_S se establece a GL_REPEAT.

Gl texture wrapt

Establece el parámetro wrap para la coordenada de textura t a GL_CLAMP, GL_CLAMP_TO_EDGE, o GL_REPEAT (véase arriba). Inicialmente, GL_TEXTURE_WRAP_T se establece a GL_REPEAT.

5.- Escriba un programa que:

- Defina dos luces de características distintas.

- Dibuje un cubo en el que cada cara tenga distintas propiedades de material aplicadas.

- Dibuje otro cubo para el cual en cada cara se aplique una textura distinta. Una de ellas debe ser la foto del alumno.

- Al apretar el botón izquierdo del mouse prende/apaga la primera luz.

- Al apretar el botón derecho del mouse prende/apaga la segunda luz.

- Al usar las teclas de dirección del teclado cambia la posición de la primera luz.

Código:

#include

#include

#include

#include "bitmap.h"

BITMAPINFO *TexInfo; /* Texture bitmap information */

GLubyte *TexBits; /* Texture bitmap pixel bits */

static int giraenx = 0; //Variable para rotar la luz en x.

static int giraeny = 0; //Variable para rotar la luz en y.

static int int1 = 1;

static int int2 = 1;

static int ry, rx, rz; //Variables para rotar el cubo de materiales.

static int rotarx, rotary, rotarz; //Variables para rotar el cubo de texturas.

/* Inicializa las prpiedaes de material, fuente de luz y el z buffer*/

void init(void)

{

glClearColor (0.0, 0.0, 0.0, 0.0);

glShadeModel (GL_SMOOTH);

glEnable(GL_LIGHTING);

glEnable(GL_LIGHT0);

glEnable(GL_LIGHT1);

glEnable(GL_DEPTH_TEST);

}

void display(void)

{

//Matrices para los atributos de la luz.

GLfloat position[] = { 0.0, 0.0, 2.5, 0.0 };

GLfloat position2[] = { 0.0, 3.0, 3.0, 0.0 };

GLfloat light_ambient[]={0.4, 0.4, 0.4, 1.0};

GLfloat light_diffuse[]={0.4, 0.4, 0.4, 1.0};

GLfloat light_specular[]={0.8, 0.8, 0.8, 1.0};

//Matrices los atributos de los materiales.

GLfloat no_mat[] = {0.0,0.0,0.0,1.0};

GLfloat mat_ambient[] = {0.7,0.7,0.7,1.0};

GLfloat mat_ambient_color[] = {0.8,0.8,0.2,1.0};

GLfloat mat_diffuse[] = {0.1,0.5,0.8,1.0};

GLfloat mat_specular[] = {1.0,1.0,1.0,1.0};

GLfloat no_shininess[] = {0.0};

GLfloat low_shininess[] = {5.0};

GLfloat high_shininess[] = {100.0};

GLfloat mat_emission[] = {0.3,0.2,0.2,1.0};

GLfloat mat_amb_diff[] = {0.1, 0.5, 0.8, 1.0};

GLfloat mat_amb_diff2[] = {1.0, 0.1, 0.1, 1.0};

GLfloat mat_emission1[] = {0.3,0.8,0.2,1.0};

glClear (GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);

glPushMatrix ();

gluLookAt (5.0, 5.0, 5.0, 0.0, 0.0, 0.0, 0.0, 1.0, 0.0);

//Primera luz

glPushMatrix ();

glRotated ((GLdouble) giraenx, 1.0, 0.0, 0.0);

glRotated ((GLdouble) giraeny, 0.0, 1.0, 0.0);

glLightfv (GL_LIGHT0, GL_POSITION, position);

glTranslated (0.0, 0.0,2.5 );

glDisable (GL_LIGHTING);

glColor3f (1.0, 1.0, 1.0);

glutWireCube (0.1);

glEnable (GL_LIGHTING);

glPopMatrix ();

//Fin primera luz

//Segunda luz

glPushMatrix ();

glLightfv (GL_LIGHT1, GL_POSITION, position2);

glLightfv (GL_LIGHT1, GL_AMBIENT, light_ambient);

glLightfv (GL_LIGHT1, GL_DIFFUSE, light_diffuse);

glLightfv (GL_LIGHT1, GL_SPECULAR, light_specular);

glTranslated (0.0,2.5,2.5);

glDisable (GL_LIGHTING);

glColor3f (1.0, 1.0, 1.0);

glutWireCube (0.1);

glEnable (GL_LIGHTING);

glPopMatrix ();

//Fin segunda luz

//Inicia módulo de cubo de materiales.

glPushMatrix ();

glScalef(1.0,1.0,1.0);

glRotatef(rx,1.0,0.0,0.0);

glRotatef(ry,0.0,1.0,0.0);

glRotatef(rz,0.0,0.0,1.0);

glTranslatef(0.0,0.0,0.0);

glPushMatrix ();

/*Solo con difuso*/

glMaterialfv(GL_FRONT, GL_AMBIENT, no_mat);

glMaterialfv(GL_FRONT, GL_DIFFUSE, mat_diffuse);

glMaterialfv(GL_FRONT, GL_SPECULAR, no_mat);

glMaterialfv(GL_FRONT, GL_SHININESS, no_shininess);

glMaterialfv(GL_FRONT, GL_EMISSION, no_mat);

glBegin(GL_QUADS);

glNormal3f(0.0,0.0,1.0);

glVertex3f(0.5,0.5,0.5);

glVertex3f(-0.5,0.5,0.5);

glVertex3f(-0.5,-0.5,0.5);

glVertex3f(0.5,-0.5,0.5);

glEnd();

glPopMatrix ();

glPushMatrix ();

/*difusa y especular, poco brillo*/

glMaterialfv(GL_FRONT, GL_AMBIENT, no_mat);

glMaterialfv(GL_FRONT, GL_DIFFUSE, mat_diffuse);

glMaterialfv(GL_FRONT, GL_SPECULAR, mat_specular);

glMaterialfv(GL_FRONT, GL_SHININESS, low_shininess);

glMaterialfv(GL_FRONT, GL_EMISSION, no_mat);

glBegin(GL_QUADS);

glNormal3f(0.0,0.0,-1.0);

glVertex3f(-0.5,0.5,-0.5);

glVertex3f(0.5,0.5,-0.5);

glVertex3f(0.5,-0.5,-0.5);

glVertex3f(-0.5,-0.5,-0.5);

glEnd();

glPopMatrix ();

glPushMatrix ();

/*difusa, con reflejo especular y alto brillo */

glMaterialfv(GL_FRONT, GL_AMBIENT, no_mat);

glMaterialfv(GL_FRONT, GL_DIFFUSE, mat_diffuse);

glMaterialfv(GL_FRONT, GL_SPECULAR, mat_specular);

glMaterialfv(GL_FRONT, GL_SHININESS, high_shininess);

glMaterialfv(GL_FRONT, GL_EMISSION, no_mat);

glBegin(GL_QUADS);

glNormal3f(-1.0,0.0,0.0);

glVertex3f(-0.5,0.5,0.5);

glVertex3f(-0.5,0.5,-0.5);

glVertex3f(-0.5,-0.5,-0.5);

glVertex3f(-0.5,-0.5,0.5);

glEnd();

glPopMatrix ();

glPushMatrix ();

/*ambiente , difuso y con emision*/

glMaterialfv(GL_FRONT, GL_AMBIENT, mat_ambient);

glMaterialfv(GL_FRONT, GL_DIFFUSE, mat_diffuse);

glMaterialfv(GL_FRONT, GL_SPECULAR, no_mat);

glMaterialfv(GL_FRONT, GL_SHININESS, no_shininess);

glMaterialfv(GL_FRONT, GL_EMISSION, mat_emission);

glBegin(GL_QUADS);

glNormal3f(1.0,0.0,0.0);

glVertex3f(0.5,0.5,0.5);

glVertex3f(0.5,-0.5,0.5);

glVertex3f(0.5,-0.5,-0.5);

glVertex3f(0.5,0.5,-0.5);

glEnd();

glPopMatrix ();

glPushMatrix ();

/*color de ambiente, difuso, refleccion especular y poco brillo*/

glMaterialfv(GL_FRONT, GL_AMBIENT, mat_ambient_color);

glMaterialfv(GL_FRONT, GL_DIFFUSE, mat_diffuse);

glMaterialfv(GL_FRONT, GL_SPECULAR, mat_specular);

glMaterialfv(GL_FRONT, GL_SHININESS, low_shininess);

glMaterialfv(GL_FRONT, GL_EMISSION, no_mat);

glBegin(GL_QUADS);

glNormal3f(0.0,1.0,0.0);

glVertex3f(-0.5,0.5,-0.5);

glVertex3f(-0.5,0.5,0.5);

glVertex3f(0.5,0.5,0.5);

glVertex3f( 0.5,0.5,-0.5);

glEnd();

glPopMatrix ();

glPushMatrix ();

/*color de ambiente, difuso, refleccion especular y alto brillo*/

glMaterialfv(GL_FRONT, GL_AMBIENT, mat_ambient_color);

glMaterialfv(GL_FRONT, GL_DIFFUSE, mat_diffuse);

glMaterialfv(GL_FRONT, GL_SPECULAR, mat_specular);

glMaterialfv(GL_FRONT, GL_SHININESS, high_shininess);

glMaterialfv(GL_FRONT, GL_EMISSION, no_mat);

glBegin(GL_QUADS);

glNormal3f(0.0,-1.0,0.0);

glVertex3f(0.5,-0.5,-0.5);

glVertex3f(-0.5,-0.5,-0.5);

glVertex3f(-0.5,-0.5,0.5);

glVertex3f(0.5,-0.5,0.5);

glEnd();

glPopMatrix ();

glPopMatrix ();

//Fin cubo de materiales

//Fin módulo de cubo de materiales y luces.

//Inicia módulo de cubo de texturas.

glPopMatrix ();

glFlush();

glLoadIdentity ();

glPushMatrix();

glColor3f(1.0, 1.0, 1.0);

glTranslatef(1.0,0.0,-5.0);

glRotatef(rotarx,1.0,0.0,0.0);

glRotatef(rotary,0.0,1.0,0.0);

glRotatef(rotarz,0.0,0.0,1.0);

glPushMatrix();

glScalef(0.75,0.75,0.75);

//Cargar imagen 1.

TexBits = LoadDIBitmap("Yof.bmp", &TexInfo);

glTexImage2D(GL_TEXTURE_2D, 0, 3, TexInfo->bmiHeader.biWidth,

TexInfo->bmiHeader.biHeight, 0, GL_BGR_EXT,

GL_UNSIGNED_BYTE, TexBits);

glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);

glEnable(GL_TEXTURE_2D);

glBegin(GL_QUADS);

glNormal3f(0.0,0.0,1.0);

glTexCoord2f(1.0,1.0); glVertex3f(0.5,0.5,0.5);

glTexCoord2f(0.0,1.0); glVertex3f(-0.5,0.5,0.5);

glTexCoord2f(0.0,0.0); glVertex3f(-0.5,-0.5,0.5);

glTexCoord2f(1.0,0.0); glVertex3f(0.5,-0.5,0.5);

glEnd();

glDisable(GL_TEXTURE_2D);

//Cargar imagen 2.

TexBits = LoadDIBitmap("Aerisf.bmp", &TexInfo);

glTexImage2D(GL_TEXTURE_2D, 0, 3, TexInfo->bmiHeader.biWidth,

TexInfo->bmiHeader.biHeight, 0, GL_BGR_EXT,

GL_UNSIGNED_BYTE, TexBits);

glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);

glEnable(GL_TEXTURE_2D);

glBegin(GL_QUADS);

glNormal3f(0.0,0.0,-1.0);

glTexCoord2f(1.0,1.0); glVertex3f(-0.5,0.5,-0.5);

glTexCoord2f(0.0,1.0); glVertex3f( 0.5,0.5,-0.5);

glTexCoord2f(0.0,0.0); glVertex3f(0.5,-0.5,-0.5);

glTexCoord2f(1.0,0.0); glVertex3f(-0.5,-0.5,-0.5);

glEnd();

glDisable(GL_TEXTURE_2D);

//Cargar imagen 3.

TexBits = LoadDIBitmap("Baikenf.bmp", &TexInfo);

glTexImage2D(GL_TEXTURE_2D, 0, 3, TexInfo->bmiHeader.biWidth,

TexInfo->bmiHeader.biHeight, 0, GL_BGR_EXT,

GL_UNSIGNED_BYTE, TexBits);

glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);

glEnable(GL_TEXTURE_2D);

glBegin(GL_QUADS);

glNormal3f(-1.0,0.0,0.0);

glTexCoord2f(1.0,1.0); glVertex3f(-0.5,0.5,0.5);

glTexCoord2f(0.0,1.0); glVertex3f(-0.5,0.5,-0.5);

glTexCoord2f(0.0,0.0); glVertex3f(-0.5,-0.5,-0.5);

glTexCoord2f(1.0,0.0); glVertex3f(-0.5,-0.5,0.5);

glEnd();

glDisable(GL_TEXTURE_2D);

//Cargar imagen 4.

TexBits = LoadDIBitmap("Jamf.bmp", &TexInfo);

glTexImage2D(GL_TEXTURE_2D, 0, 3, TexInfo->bmiHeader.biWidth,

TexInfo->bmiHeader.biHeight, 0, GL_BGR_EXT,

GL_UNSIGNED_BYTE, TexBits);

glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);

glEnable(GL_TEXTURE_2D);

glBegin(GL_QUADS);

glNormal3f(1.0,0.0,0.0);

glTexCoord2f(0.0,1.0); glVertex3f(0.5,0.5,0.5);

glTexCoord2f(0.0,0.0); glVertex3f(0.5,-0.5,0.5);

glTexCoord2f(1.0,0.0); glVertex3f(0.5,-0.5,-0.5);

glTexCoord2f(1.0,1.0); glVertex3f(0.5,0.5,-0.5);

glEnd();

glDisable(GL_TEXTURE_2D);

//Cargar imagen 5.

TexBits = LoadDIBitmap("Ukyof.bmp", &TexInfo);

glTexImage2D(GL_TEXTURE_2D, 0, 3, TexInfo->bmiHeader.biWidth,

TexInfo->bmiHeader.biHeight, 0, GL_BGR_EXT,

GL_UNSIGNED_BYTE, TexBits);

glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);

glEnable(GL_TEXTURE_2D);

glBegin(GL_QUADS);

glNormal3f(0.0,1.0,0.0);

glTexCoord2f(0.0,1.0); glVertex3f(-0.5,0.5,-0.5);

glTexCoord2f(0.0,0.0); glVertex3f(-0.5,0.5,0.5);

glTexCoord2f(1.0,0.0); glVertex3f(0.5,0.5,0.5);

glTexCoord2f(1.0,1.0); glVertex3f( 0.5,0.5,-0.5);

glEnd();

glDisable(GL_TEXTURE_2D);

//Cargar imagen 6.

TexBits = LoadDIBitmap("Feliciaf.bmp", &TexInfo);

glTexImage2D(GL_TEXTURE_2D, 0, 3, TexInfo->bmiHeader.biWidth,

TexInfo->bmiHeader.biHeight, 0, GL_BGR_EXT,

GL_UNSIGNED_BYTE, TexBits);

glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);

glEnable(GL_TEXTURE_2D);

glBegin(GL_QUADS);

glNormal3f(0.0,-1.0,0.0);

glTexCoord2f(0.0,0.0); glVertex3f(0.5,-0.5,-0.5);

glTexCoord2f(1.0,0.0); glVertex3f(-0.5,-0.5,-0.5);

glTexCoord2f(1.0,1.0); glVertex3f(-0.5,-0.5,0.5);

glTexCoord2f(0.0,1.0); glVertex3f(0.5,-0.5,0.5);

glEnd();

glDisable(GL_TEXTURE_2D);

glPopMatrix();

glPopMatrix();

glutSwapBuffers();

glFlush ();

}

void reshape (int w, int h)

{

glViewport (0, 0, (GLsizei) w, (GLsizei) h);

glMatrixMode (GL_PROJECTION);

glLoadIdentity();

gluPerspective(40.0, (GLfloat) w/(GLfloat) h, 1.0, 20.0);

glMatrixMode(GL_MODELVIEW);

glLoadIdentity();

}

/* ARGSUSED2 */

void mouse(int button, int state, int x, int y)

{

switch (button) {

case GLUT_LEFT_BUTTON:

if (state == GLUT_DOWN) {

if (int1 == 1)

{

glDisable(GL_LIGHT0);

int1 = 0;

glutPostRedisplay();

}

else

{

glEnable(GL_LIGHT0);

int1 = 1;

glutPostRedisplay();

}

}

break;

case GLUT_RIGHT_BUTTON:

if (state == GLUT_DOWN) {

if (int2 == 1)

{

glDisable(GL_LIGHT1);

int2 = 0;

glutPostRedisplay();

}

else

{

glEnable(GL_LIGHT1);

int2 = 1;

glutPostRedisplay();

}

}

break;

default:

break;

}

}

void special(int key, int x, int y)

{

switch (key)

{

case GLUT_KEY_RIGHT:

giraeny = (giraeny + 3) % 360;

glutPostRedisplay();

break;

case GLUT_KEY_LEFT:

giraeny = (giraeny - 3) % 360;

glutPostRedisplay();

break;

case GLUT_KEY_UP:

giraenx = (giraenx - 3) % 360;

glutPostRedisplay();

break;

case GLUT_KEY_DOWN:

giraenx = (giraenx + 3) % 360;

glutPostRedisplay();

break;

default:

break;

}

}

void keyboard(unsigned char key, int x, int y)

{

switch (key) {

case 27:

exit(0);

break;

case 'a':

ry = (ry + 3)%360;

glutPostRedisplay();

break;

case 's':

rx = (rx + 3)%360;

glutPostRedisplay();

break;

case 'd':

rz = (rz + 3)%360;

glutPostRedisplay();

break;

case 'p':

giraenx = 0;

giraeny = 0;

rx = 0;

rz = 0;

ry = 0;

glEnable(GL_LIGHT0);

glEnable(GL_LIGHT1);

glutPostRedisplay();

break;

case 'y':

rotary = (rotary + 20)%360;

glutPostRedisplay();

break;

case 'x':

rotarx = (rotarx + 20)%360;

glutPostRedisplay();

break;

case 'z':

rotarz = (rotarz + 20)%360;

glutPostRedisplay();

break;

case 'r':

rotarx = 0;

rotary = 0;

rotarz = 0;

glutPostRedisplay();

break;

}

}

int main(int argc, char** argv)

{

glutInit(&argc, argv);

glutInitDisplayMode (GLUT_SINGLE | GLUT_RGB | GLUT_DEPTH);

glutInitWindowSize (500, 500);

glutInitWindowPosition (100, 100);

glutCreateWindow ("These are my bitches");

init ();

glutDisplayFunc(display);

glutReshapeFunc(reshape);

glutMouseFunc(mouse);

glutKeyboardFunc(keyboard);

glutSpecialFunc(special);

glutMainLoop();

return 0;

}