{"id":4439,"date":"2026-04-06T16:23:35","date_gmt":"2026-04-06T19:23:35","guid":{"rendered":"http:\/\/laf5.publisher.highstack.com.ar\/?p=4439"},"modified":"2026-04-06T16:23:35","modified_gmt":"2026-04-06T19:23:35","slug":"las-camaras-de-los-robots-siempre-tuvieron-un-problema-con-la-luz-un-nuevo-ojo-inspirado-en-la-biologia-acaba-de-resolverlo-imitando-como-se-contrae-y-expande-nuestra-pupila","status":"publish","type":"post","link":"https:\/\/laf5.publisher.highstack.com.ar\/?p=4439","title":{"rendered":"Las c\u00e1maras de los robots siempre tuvieron un problema con la luz. Un nuevo \u201cojo\u201d inspirado en la biolog\u00eda acaba de resolverlo imitando c\u00f3mo se contrae y expande nuestra pupila"},"content":{"rendered":"<div>\n<p>Hay algo que hacemos constantemente y sin pensar: pasar de la oscuridad a la luz sin quedarnos pr\u00e1cticamente ciegos. Entrar a un t\u00fanel, salir al sol, mirar una pantalla de noche, conducir al amanecer. Nuestro ojo ajusta la pupila, regula cu\u00e1nta luz entra y sigue funcionando con una naturalidad que parece trivial, pero no lo es en absoluto.<\/p>\n<p>Para las m\u00e1quinas, de hecho, sigue siendo un problema serio. En rob\u00f3tica y navegaci\u00f3n aut\u00f3noma, uno de los grandes cuellos de botella no es tanto \u201cver m\u00e1s n\u00edtido\u201d como seguir viendo bien cuando la iluminaci\u00f3n cambia de golpe. Y eso, en el mundo real, pasa todo el tiempo.<\/p>\n<h2>La visi\u00f3n artificial siempre tuvo un problema con la luz porque las c\u00e1maras tradicionales no se adaptan como un ojo<\/h2>\n<p>Una c\u00e1mara puede ofrecer una imagen excelente en condiciones controladas, pero fuera del laboratorio la historia cambia. Reflejos, deslumbramientos, zonas de sombra, contraluces o cambios bruscos entre interior y exterior pueden saturar el sensor o reducir su capacidad de interpretar lo que tiene delante.<\/p>\n<p>Eso es especialmente delicado en sistemas que no solo miran, sino que adem\u00e1s tienen que tomar decisiones a partir de lo que ven. Veh\u00edculos aut\u00f3nomos, robots m\u00f3viles o sistemas de inspecci\u00f3n industrial dependen de que la imagen no se degrade justo cuando el entorno se vuelve m\u00e1s imprevisible. Y ah\u00ed es donde entra este nuevo desarrollo.<\/p>\n<h2>Lo interesante del avance no es solo que se inspire en el ojo humano. Es que copia una de sus funciones m\u00e1s elegantes<\/h2>\n<p>Un equipo de ingenieros de la Universidad de Carolina del Norte en Chapel Hill present\u00f3 en Science Robotics un sistema visual que puede modificar su apertura de forma aut\u00f3noma, imitando el comportamiento del iris humano.<\/p>\n<p>La idea es sencilla de explicar, pero muy dif\u00edcil de ejecutar bien: en lugar de usar una apertura fija o depender de mecanismos externos, el sensor cambia por s\u00ed solo la cantidad de luz que deja pasar. Eso significa que puede adaptarse en tiempo real a distintas condiciones de iluminaci\u00f3n sin recurrir a motores, ajustes manuales ni estructuras r\u00edgidas tradicionales. Y ah\u00ed est\u00e1 una de las claves del trabajo.<\/p>\n<h2>En vez de usar una pieza mec\u00e1nica cl\u00e1sica, el sistema se apoya en un material l\u00edquido que responde como si fuera parte de un tejido vivo<\/h2>\n<figure id=\"attachment_2000230440\" aria-describedby=\"caption-attachment-2000230440\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-2000230440\" src=\"https:\/\/es.gizmodo.com\/app\/uploads\/2026\/04\/Diseno-sin-titulo-51-2.jpg\" alt=\"Las c\u00e1maras de los robots siempre fallaron en algo muy humano. Un nuevo \u201cojo\u201d artificial acaba de resolverlo imitando c\u00f3mo cambia nuestra pupila con la luz\" width=\"1500\" height=\"1000\" srcset=\"https:\/\/es.gizmodo.com\/app\/uploads\/2026\/04\/Diseno-sin-titulo-51-2.jpg 1500w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/04\/Diseno-sin-titulo-51-2-300x200.jpg 300w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/04\/Diseno-sin-titulo-51-2-1024x683.jpg 1024w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/04\/Diseno-sin-titulo-51-2-768x512.jpg 768w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/04\/Diseno-sin-titulo-51-2-672x448.jpg 672w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/04\/Diseno-sin-titulo-51-2-960x640.jpg 960w\" sizes=\"auto, (max-width: 639px) 100vw, (max-width: 1023px) calc(100vw - 2rem), (max-width: 1258px) calc((100vw - 3.68rem) * 2 \/ 3), 800px\"\/><figcaption id=\"caption-attachment-2000230440\" class=\"wp-caption-text\">\u00a9 ChatGPT \/ Gizmodo.<\/figcaption><\/figure>\n<p>El coraz\u00f3n del dispositivo es un metal l\u00edquido conductor conocido como EGaIn, encerrado en una estructura sellada y combinado con una soluci\u00f3n salina que reproduce ciertas condiciones bioinspiradas. Cuando la luz incide sobre el sensor, el sistema genera una se\u00f1al que desplaza ese material dentro del dispositivo. Ese movimiento modifica la geometr\u00eda de la apertura y, con ello, regula cu\u00e1nta luz entra.<\/p>\n<p>Lo fascinante es que el ajuste no ocurre como una orden externa, sino como una respuesta integrada en el propio sistema. En otras palabras, no es una c\u00e1mara \u201ccorrigiendo\u201d un problema despu\u00e9s de verlo. Es un sensor que se adapta f\u00edsicamente antes de que el problema lo desborde. Y eso se parece mucho m\u00e1s a un ojo que a una c\u00e1mara convencional.<\/p>\n<h2>Tambi\u00e9n cambia otra cosa importante: c\u00f3mo se captura el entorno en los bordes de la imagen<\/h2>\n<p>Uno de los problemas habituales en \u00f3ptica artificial es que muchas lentes funcionan muy bien en el centro del encuadre, pero empiezan a deformar o perder calidad en los extremos. En rob\u00f3tica, eso no es un detalle menor: muchas veces los obst\u00e1culos, movimientos o cambios m\u00e1s relevantes aparecen precisamente fuera del eje central.<\/p>\n<p>El nuevo sistema incorpora una geometr\u00eda m\u00e1s cercana a la curvatura de un ojo real, lo que permite mejorar el campo visual lateral y reducir parte de esa distorsi\u00f3n perif\u00e9rica. No se trata solo de captar m\u00e1s luz, sino de captar mejor el espacio completo. Ese matiz es importante porque acerca el dispositivo a una visi\u00f3n m\u00e1s \u00fatil en condiciones reales, no solo a una imagen m\u00e1s bonita en laboratorio.<\/p>\n<h2>Las pruebas muestran una mejora concreta en el rendimiento, y ah\u00ed es donde la idea deja de ser una curiosidad elegante<\/h2>\n<p>En los ensayos realizados por el equipo, el sistema fue sometido a condiciones de iluminaci\u00f3n dif\u00edciles, con focos intensos, reflejos y escenarios pensados para reproducir situaciones complicadas del mundo exterior. Con lentes m\u00e1s convencionales, el rendimiento se resent\u00eda con bastante facilidad: la imagen tend\u00eda a saturarse y el sistema perd\u00eda precisi\u00f3n a la hora de interpretar correctamente la escena.<\/p>\n<p>Con el nuevo dise\u00f1o, en cambio, la capacidad de respuesta mejor\u00f3 de forma clara. Seg\u00fan los resultados presentados, la precisi\u00f3n subi\u00f3 desde alrededor del 68% hasta el 83,5%, una diferencia lo bastante significativa como para que deje de ser solo una mejora de laboratorio y empiece a parecer una soluci\u00f3n aplicable.<\/p>\n<h2>Eso abre una puerta mucho m\u00e1s grande que la de una c\u00e1mara \u201cm\u00e1s lista\u201d<\/h2>\n<p>Lo interesante de este avance no es solo que mejore el rendimiento de un sensor. Es que apunta a una direcci\u00f3n bastante m\u00e1s profunda en el dise\u00f1o de m\u00e1quinas: dejar de compensar los l\u00edmites del hardware \u00fanicamente con software, y empezar a construir sistemas que ya nazcan con respuestas m\u00e1s parecidas a las de un organismo.<\/p>\n<p>Durante a\u00f1os, gran parte de la evoluci\u00f3n de la visi\u00f3n artificial se apoy\u00f3 en procesar mejor la imagen una vez capturada. Este trabajo propone algo distinto: hacer que el propio sistema visual responda de forma adaptativa desde su estructura f\u00edsica. Eso cambia bastante el enfoque. Porque ya no se trata solo de \u201cver m\u00e1s\u201d o de \u201cver m\u00e1s definido\u201d. Se trata de ver mejor en un mundo imprevisible.<\/p>\n<h2>En el fondo, este tipo de tecnolog\u00edas apuntan a una idea cada vez m\u00e1s clara: las m\u00e1quinas no necesitan parecer m\u00e1s inteligentes, sino m\u00e1s vivas<\/h2>\n<p>Y ah\u00ed est\u00e1 quiz\u00e1 la parte m\u00e1s interesante de toda esta historia. El avance no convierte a un robot en un ser biol\u00f3gico, claro. Pero s\u00ed muestra algo que empieza a repetirse en muchos campos de la ingenier\u00eda: cuando la tecnolog\u00eda quiere operar bien en el mundo real, cada vez recurre m\u00e1s a soluciones que la naturaleza ya resolvi\u00f3 hace millones de a\u00f1os.<\/p>\n<p>No porque la biolog\u00eda sea rom\u00e1ntica. Sino porque funciona. Y si este tipo de sistemas sigue evolucionando, lo que hoy parece una lente curiosa podr\u00eda terminar siendo una pieza bastante habitual en robots, veh\u00edculos aut\u00f3nomos o dispositivos que necesiten hacer algo tan aparentemente simple como lo que hacemos nosotros a cada instante: seguir viendo bien cuando la luz cambia.<\/p>\n<\/p><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Hay algo que hacemos constantemente y sin pensar: pasar de la oscuridad a la luz sin quedarnos pr\u00e1cticamente ciegos. Entrar a un t\u00fanel, salir al sol, mirar una pantalla de noche, conducir al amanecer. Nuestro ojo ajusta la pupila, regula cu\u00e1nta luz entra y sigue funcionando con una naturalidad que parece trivial, pero no lo [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":4440,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-4439","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categoria"],"_links":{"self":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/4439","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=4439"}],"version-history":[{"count":0,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/4439\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/media\/4440"}],"wp:attachment":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=4439"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=4439"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=4439"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}