Investigadores de la Universidad de Aston y la Universidad de York han logrado nuevos avances en la comprensión de cómo el cerebro humano realiza juicios perceptuales sobre el mundo externo.
El estudio, publicado el 8 de mayo en la revista PLOS ONE, ha explorado los mecanismos computacionales utilizados por el cerebro humano para percibir el tamaño de los objetos en nuestro entorno. Estos descubrimientos ofrecen una visión más clara sobre cómo nuestro sistema visual puede utilizar el «desenfoque por falta de enfoque» para inferir la escala perceptual, aunque de manera imprecisa.
Es ampliamente conocido que, para determinar el tamaño de un objeto a partir de su imagen en la retina, nuestro sistema visual necesita estimar la distancia al objeto. La imagen retiniana contiene numerosas pistas pictóricas, como la perspectiva lineal, que ayudan al sistema a calcular el tamaño relativo de los objetos. Sin embargo, para determinar el tamaño absoluto, el sistema necesita comprender la escala espacial.
Teniendo en cuenta el desenfoque por falta de enfoque, similar a las partes borrosas de una imagen fuera de la profundidad de enfoque de una cámara, el sistema visual puede lograrlo. Los cálculos matemáticos detrás de este proceso ya han sido estudiados en profundidad por otros investigadores, pero este estudio plantea la pregunta: ¿hasta qué punto nuestra visión humana explota estos cálculos matemáticos?
El equipo de investigación presentó a los participantes pares fotográficos de escenas ferroviarias a escala real sometidas a diversos tratamientos de desenfoque artificial, así como modelos a escala reducida de escenas ferroviarias capturados con una exposición prolongada y una apertura pequeña para disminuir el desenfoque. La tarea consistía en detectar qué fotografía de cada par representaba la escena a escala real.
Cuando el desenfoque artificial estaba orientado adecuadamente con el plano horizontal (el plano del suelo sobre el que se encuentra el observador) en las escenas a escala real, los participantes se confundían y creían que los modelos reducidos eran las escenas a escala real. Sorprendentemente, esto no requería la aplicación de gradientes de desenfoque realistas. Bandas uniformes de desenfoque en la parte superior e inferior de las fotografías lograban efectos de miniaturización casi equivalentes.
“Nuestros resultados indican que la visión humana puede aprovechar el desenfoque por falta de enfoque para inferir la escala perceptual, aunque lo hace de manera rudimentaria, más como una heurística que como un análisis métrico. En general, nuestros hallazgos proporcionan nuevos conocimientos sobre los mecanismos computacionales utilizados por el cerebro humano en los juicios perceptuales sobre la relación entre nosotros y el mundo externo”, explica el profesor Tim Meese, especialista en ciencias de la visión de la Universidad de Aston.
Por su parte, el Dr. Daniel Baker, profesor titular de psicología en la Universidad de York, afirmó: «Estos hallazgos demuestran que nuestra percepción del tamaño no es perfecta y puede verse influenciada por otras propiedades de una escena. También resalta la notable adaptabilidad del sistema visual, lo que podría ser relevante para comprender los principios computacionales que subyacen a nuestra percepción del mundo, por ejemplo, al juzgar el tamaño y la distancia de los peligros al conducir».
Puede acceder al paper de la investigación a través del siguiente enlace:
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0285423
Imagen de portada: Freepik