Cuando Apple Inc presentó su iPhone con triple cámara esta semana, su jefe de marketing Phil Schiller comentó la capacidad del dispositivo para lograr la fotografía perfecta entretejiendo ocho exposiciones separadas captadas antes de la toma principal, una hazaña de la «loca ciencia de la fotografía computacional».
«Cuando se presiona el obturador toma una exposición larga y en un segundo el motor neural analiza la combinación fusionada de imágenes largas y cortas, escogiendo las mejores, seleccionando todos los pixeles», dijo Schiller sobre la tecnología llamada «Fusión Profunda».
«Pixel por pixel pasa por 24 millones de pixeles para mejorar el detalle y dejar bajo el nivel de ruido», explicó.
Es el tipo de digresión técnica que, en años pasados, podría haberse reservado para la narración del jefe de diseño Jony Ive sobre el proceso de fresado de alta precisión de las esbeltas líneas del iPhone.
Pero en este caso, Schiller, el fotógrafo más entusiasta de la compañía, lo que hacía era elogiar el silicio personalizado y el software de inteligencia artificial del smartphone.
El campo de batalla del sector tecnológico para las cámaras de los teléfonos inteligentes llega así al interior del móvil, donde el sofisticado software de inteligencia artificial y chips especiales juegan un papel importante en el aspecto de las fotos capturadas.
«Las cámaras y las pantallas venden teléfonos», dijo Julie Ask, vicepresidenta y analista principal de Forrester.
Apple añadió un tercer lente al iPhone 11 Pro, que coincide con la configuración de tres cámaras de Samsung Electronics Co Ltd y Huawei Technologies Co Ltd, una característica ya distintiva de sus rivales asiáticos.
Pero Apple también se puso al día dentro del teléfono, con funciones como el «modo nocturno», un ajuste diseñado para que las fotos con poca luz se vean mejor.
La empresa añadirá ese modo a sus nuevos iPhone cuando se distribuyan a partir del 20 de septiembre, aunque tanto Huawei como el Google Pixel de Alphabet Inc ya disponen del mismo desde el año pasado.
Al mejorar el aspecto de las fotos, Apple está intentando sacar ventaja del chip personalizado que alimenta su teléfono. Durante el lanzamiento del iPhone 11 Pro, los ejecutivos pasaron más tiempo hablando de su procesador -apodado A13 Bionic- que de las especificaciones de la tercera lente.
Una parte especial de ese chip llamada «motor neuronal», que se reserva para tareas de inteligencia artificial, tiene como objetivo ayudar al iPhone a tomar imágenes mejores y más nítidas en situaciones complicadas de iluminación.
Samsung y Huawei también diseñan chips personalizados para sus teléfonos, e incluso Google tiene el silicio «Visual Core» personalizado que ayuda en las tareas fotográficas de sus Pixel.
Ryan Reith, vicepresidente del programa de seguimiento de dispositivos móviles de consultora IDC, dijo que se ha entrado en un costoso juego en el que sólo los fabricantes de teléfonos con recursos suficientes para crear chips y software personalizados pueden permitirse invertir en sistemas de cámaras personalizadas que diferencien sus dispositivos.
Hasta los teléfonos más baratos ya montan dos o tres cámaras en su parte trasera, señaló, pero son los chips y el software los que juegan un papel fundamental a la hora de que las imágenes resultantes sean deslumbrantes o simplemente mediocres.