Hace pocos días corría como la pólvora por Internet la historia de
una diseñadora gráfica holandesa que ha simulado unas vacaciones en
Asia. Logró incluso engañar a su familia publicando en redes sociales
fotos manipuladas y realizando videoconferencias en decorados.
Este experimento no es sólo una broma sofisticada ni una campaña
viral de autopromoción. Zilla Van Den Born con las imágenes de su
simulacro, recogidas en el libro Sjezus zeg, Zilla, invita a que reflexionemos sobre cómo la tecnología altera nuestra percepción del mundo.
Un buen ejemplo de esto es que muchos fabricantes de cámaras y
teléfonos móviles no buscan que sus productos capten fotos o vídeos
fieles a la realidad. Prefieren que capten imágenes atractivas. Para
ello se valen de las herramientas que les proporciona una disciplina en
auge: la fotografía computacional.
Cada vez es más común que algunas firmas de electrónica usen en sus
cámaras algoritmos para procesar el color que dan como resultado fotos
con tonos saturados. Al preguntar porqué esta clase de imágenes resultan
atractivas Francisco Gálvez, profesor de Medios Informáticos en la
Escuela de Arte de Guadalajara, responde que es difícil saberlo. Aunque
hay patrones culturales que pueden explicarlo. “Tradicionalmente la ropa
con colores apagados se consideraba de peor calidad que la de tonos más
saturados, pues las prendas grand-teint usan tintes de más calidad que no se destiñen al lavarlos”, señala este experto.
Algunas firmas de electrónica usan ya en sus cámaras algoritmos para procesar el color para dar tonos saturados
Otro buen ejemplo de cómo algunas cámaras alteran nuestra percepción
de la realidad lo encontramos en el iPhone 6. Cuando este teléfono de
Apple detecta condiciones de luz complejas al hacer una foto, como puede
ser tener el sol de frente, activa automáticamente el modo HDR. Sin que
el usuario tenga control sobre esta función. Esta técnica fotográfica
se basa en captar una ráfaga de imágenes para superponerlas mediante el
uso de algoritmos. El resultado es una foto con más detalles de los que
observa el fotógrafo en el momento de captarla.
Aunque puede parecer una tecnología inocua, el diario Washington Post tuvo que entonar el mea culpa
hace un par de años cuando publicó en portada una foto realizada con la
técnica HDR. El dilema ético que surgió por la publicación de esa
imagen se debía a que esta no podía ser considerada estrictamente una
instantánea fotográfica. Pues lo que nos muestra es una escena ficticia,
fruto de la fusión de varias imágenes.
Otro caso que demuestra hasta qué punto se ha generalizado el trucaje
de fotos en el mismo momento de hacerlas lo encontramos en otro móvil:
el Samsung Galaxy Note 3. Con él se realizó la famosa autofoto colectiva
de la ceremonia de los Oscar. Al captar una imagen con su cámara
trasera el terminal suaviza la piel de los que aparecen retratados.
Aunque podemos desactivar ese filtro, no deja de ser sorprendente que el
teléfono por defecto capte una imagen manipulada en vez de una imagen
fiel al original.
Cosas así no quitarán el sueño a la mayoría de los que buscan
inmortalizar un momento con su cámara o teléfono. Pero estos ejemplos
nos ponen sobre la pista de hasta que punto desconocemos la maquinaria
con la que producimos imágenes a diario.
En condiciones de luz complejas, el iPhone 6
activa automáticamente una función sin que el usuario tenga control
sobre esta función, que el usuario no controla, que captar una ráfaga de
imágenes y las superpone
Software para superar los límites de la óptica
Alguien que conoce muy bien lo que se cuece dentro de las cámaras digitales es Diego Gutiérrez,
un científico especializado en imagen computacional. Dirige el equipo
Graphics and Imaging Lab de la Universidad de Zaragoza. Hablamos con el a
través de Skype, pues actualmente se encuentra trabajando en la
universidad Tsinghua de Pekín. Un centro en el que cuenta con numerosos
recursos para investigar, asegura.
Gutiérrez reconoce que no están claros los límites a los que debe
llegar la computación para no alterar la veracidad de una imagen
fotográfica: “El problema es dónde pones la línea. Si nos vamos a casos
extremos dices 'bueno, esto no es ético”.
También apunta a que muchas técnicas usadas en las cámaras actuales no son nuevas: “El multibracketing,
usar fotos disparadas en ráfaga, está copiado de la técnica que usaban
los fotógrafos tradicionales para fotografiar en condiciones de baja
luminosidad. Hacían muchas fotos y luego, en el cuarto oscuro, revelaban
distintas partes de diversas exposiciones y las fusionaban en la misma
foto”.
Saber qué lleva a las diferentes empresas de electrónica a elegir las
tecnologías de imagen computacional que incorporan a sus productos es
un misterio. “Los fabricantes suelen guardar el secreto en cuanto a sus
formas de actuar”, añade Gutiérrez, que pone un ejemplo: “Nosotros hicimos una implementación de la técnica de HDR para móvil en 2009 en un Nokia. Creo que era la primera y no sirvió para mucho. Ahí se quedó, como un artículo científico”.
Los avances en tecnología fotográfica computacional también están
logrando superar las barreras de los componentes electrónicos y ópticos,
sobre todo en los teléfonos móviles. Gutiérrez explica que "donde el
hardware, lo físico, no llega, la computación está ayudando a evitar
obstáculos". "Los algoritmos no van a tocar techo en ningún momento”,
agrega. Por eso, aunque los móviles cuentan con cámaras muy modestas
pueden superar a las cámaras réflex profesionales en algunos aspectos.
Algo que se está demostrando con los dispositivos que disponen de la
función para grabar vídeo de ultradefinición 4K. Es una característica
que paradójicamente está más presente en móviles que en cámaras. Entre
otras cosas porque precisa una potencia de cálculo que muchas cámaras no
son capaces de alcanzar, pero si ciertos teléfonos de alta gama.
Sobre el futuro de la fotografía computacional, Gutiérrez opina que
“se están consiguiendo logros que ni se podían imaginar que se pudieran
hacer”. Lo ejemplifica con el estudio realizado por su grupo de
investigación en colaboración con el Instituto Tecnológico de
Massachusetts (MIT). Se trata de una técnica que permite captar un
billón de fotogramas por segundo. “Esto es tan rápido que puedes ver la
luz en movimiento. Podemos ver como viaja un pulso láser a través de una
botella”, señala.
Quizá dentro de varios años veamos cámaras en las tiendas que
utilicen esa tecnología. Aunque hoy por hoy ni siquiera está clara su
utilidad para el común de los mortales. Tampoco está nada claro si esas
tecnologías cambiarán el propio significado de lo que hoy entendemos que
es una fotografía.