La fotografía computacional ha demostrado ser un área clave para que las cámaras de nuestros teléfonos móviles sigan ganando enteros, y Google ya reveló lo que se podía conseguir en este área con sus Google Pixel. Ahora quieren ir más allá, y para ello se han buscado un aliado de excepción:el MIT.
Investigadores de ambas entidades han desarrollado una serie de algoritmos que son capaces de retocar nuestras imágenes casi como lo haría un fotógrafo profesional, y hacerlo antes incluso de que pulses el botón de disparo.
Fotografías cada vez más profesionales (sin que tú lo seas)
Estos algoritmos se basan en el uso de aprendizaje máquina y redes neuronales que han entrenado con una serie de 5.000 imágenes creadas por Adobe y el MIT. Cada una de esas imágenes ha sido retocadas por cinco fotógrafos distintos, y el algoritmo ha aprendido qué tipo de mejoras se han realizado a las fotos para saber cuándo y cuánto es necesario tocar todo tipo de niveles y parámetros como el brillo, el contraste o la saturación.
Aunque ya había desarrollos que mejoraban las fotos automáticamente, en este caso los algoritmos de Google y el MIT funcionan en tiempo real y eficiente, pudiendo actuar incluso como “filtros” para sacar fotos con el estilo fotográfico determinado. Al contrario que otros filtros “generalistas”, estos se adaptan a cada imagen de forma más específica.
La implicación de Google en este estudio podría apuntar a la integración de esta capacidad en sus futuros Google Pixel: la empresa ya ha dejado claro que hay mucho camino por recorrer en el campo de la fotografía computacional, y lo mejor de todo es que este tipo de mejoras harán que nuestras fotos tengan mejor aspecto que nunca sin que tengamos que hacer nada.
Más información | MIT News
En Consultores-TIC | Estas impresionantes fotos nocturnas demuestran de lo que es capaz la fotografía móvil computacional
Leave a Comment