{"id":502,"date":"2015-11-24T18:46:12","date_gmt":"2015-11-24T23:46:12","guid":{"rendered":"http:\/\/www.bairesac.com\/blog\/?p=502"},"modified":"2015-11-24T18:57:35","modified_gmt":"2015-11-24T23:57:35","slug":"un-dispositivo-traduce-las-imagenes-en-sonido-para-ayudar-a-los-ciegos-a-ver","status":"publish","type":"post","link":"https:\/\/www.bairesac.com\/blog\/archivo\/502","title":{"rendered":"Un dispositivo traduce las im\u00e1genes en sonido para ayudar a los ciegos a ver"},"content":{"rendered":"<p>Aprovecha la capacidad intr\u00ednseca de crear im\u00e1genes desde la interacci\u00f3n multisensorial.<\/p>\n<p style=\"text-align: justify;\">Investigadores del Instituto de Tecnolog\u00eda de California han descubierto que las conexiones neuronales intr\u00ednsecas se pueden emplear en dispositivos de asistencia para ayudar a personas ciegas a detectar su entorno sin necesidad de una intensa concentraci\u00f3n u horas de entrenamiento. Utilizando unas gafas conectadas a una c\u00e1mara, un algoritmo escanea cada imagen y genera un sonido con una frecuencia y volumen que var\u00eda en funci\u00f3n del brillo y la ubicaci\u00f3n vertical de los p\u00edxeles.<\/p>\n<p style=\"text-align: justify;\"><em style=\"text-align: left;\"><!--more--><\/em><\/p>\n<p style=\"text-align: left;\"><em><a href=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg\"><img loading=\"lazy\" decoding=\"async\" data-attachment-id=\"598\" data-permalink=\"https:\/\/www.bairesac.com\/blog\/archivo\/502\/ciegos-4\" data-orig-file=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg?fit=2252%2C1524&amp;ssl=1\" data-orig-size=\"2252,1524\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;}\" data-image-title=\"ciegos\" data-image-description=\"\" data-image-caption=\"\" data-medium-file=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg?fit=300%2C203&amp;ssl=1\" data-large-file=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg?fit=640%2C433&amp;ssl=1\" class=\"aligncenter size-medium wp-image-598\" title=\"ciegos\" src=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3-300x203.jpg?resize=300%2C203\" alt=\"\" width=\"300\" height=\"203\" srcset=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg?resize=300%2C203&amp;ssl=1 300w, https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg?resize=1024%2C692&amp;ssl=1 1024w, https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg?w=1280&amp;ssl=1 1280w, https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos3.jpg?w=1920&amp;ssl=1 1920w\" sizes=\"(max-width: 300px) 100vw, 300px\" data-recalc-dims=\"1\" \/><\/a><br \/>\n<\/em><\/p>\n<p style=\"text-align: justify;\">Las personas ciegas a menudo sustituyen el sonido por la vista, y algunas pueden incluso recurrir a la ecolocalizaci\u00f3n, lo que les permite localizar y discriminar objetos por las ondas ac\u00fasticas. Pero resulta que el sonido puede tambi\u00e9n adaptarse para transmitir informaci\u00f3n visual. Unos investigadores del Instituto de Tecnolog\u00eda de California (Caltech), en\u00a0<span style=\"color: #000000;\"> <\/span>Estados Unidos, est\u00e1n aprovechando ese descubrimiento para ayudar a personas ciegas.<\/p>\n<p style=\"text-align: justify;\">Para ello han desarrollado unas gafas inteligentes que convierten las im\u00e1genes en sonidos que los usuarios pueden entender de manera intuitiva y sin necesidad de entrenamiento. Seg\u00fan recoge un art\u00edculo\u00a0\u00a0publicado en la revista online New Scientist, el dispositivo llamado vOICe (OCI significa \u00ab\u00a1Oh, I See!\u00bb), consta de un par de gafas oscuras con una peque\u00f1a c\u00e1mara que se conecta a un ordenador. El sistema se basa en un algoritmo del mismo nombre desarrollado en 1992 por el ingeniero holand\u00e9s Peter Meijer.<\/p>\n<p style=\"text-align: justify;\">La herramienta es un ejemplo de c\u00f3mo se integra la informaci\u00f3n percibida por diferentes sentidos para componer un todo. As\u00ed, por ejemplo, en una cocina, el cerebro procesa el sonido del aceite que chisporrotea, el aroma de las especias, la est\u00e9tica visual de los alimentos dispuestos en el plato, o el tacto y el gusto de tomar un bocado. Aunque todas estas se\u00f1ales pueden parecer distintas e independientes, en realidad interact\u00faan y se integran dentro de la red cerebral de neuronas sensoriales. \u00a0Precisamente son esas conexiones neuronales preexistentes las que proporcionan un punto de partida importante para formar a personas con discapacidad visual en el uso de este tipo de dispositivos que les ayudar\u00e1n a ver.<\/p>\n<p style=\"text-align: justify;\">Una persona vidente simplemente tiene que abrir los ojos y el cerebro procesa autom\u00e1ticamente las im\u00e1genes y la informaci\u00f3n para que se produzca una interacci\u00f3n perfecta con su entorno. Sin embargo, los dispositivos actuales para ciegos y deficientes visuales no son tan autom\u00e1ticos o intuitivos, pues en general requieren concentraci\u00f3n y la atenci\u00f3n completa del usuario para interpretar la informaci\u00f3n sobre lo que le rodea. \u00a0Esta nueva perspectiva multisensorial podr\u00eda facilitar tareas que antes requer\u00edan mucho tiempo, permitiendo a los invidentes la adquisici\u00f3n de una nueva funcionalidad sensorial similar a la visi\u00f3n.<\/p>\n<p style=\"text-align: justify;\">&nbsp;<\/p>\n<div id=\"para_2\">\n<div>\n<div style=\"text-align: justify;\"><strong>Estimular la corteza visual<\/strong>&nbsp;<\/p>\n<p>\u00abLa mayor\u00eda de libros sobre neurociencia s\u00f3lo dedican unas p\u00e1ginas a la interacci\u00f3n multisensorial, mientras el 99 por ciento de nuestra vida cotidiana depende de este proceso\u00bb, lamenta Shinsuke Shimojo, investigador principal del estudio, en un\u00a0comunicado de Caltech.<\/p>\n<p>A modo de ejemplo, explica que si una persona est\u00e1 hablando por tel\u00e9fono con alguien que conoce muy bien y est\u00e1 llorando, aunque s\u00f3lo pueda escuchar el sonido, es capaz de visualizar sus l\u00e1grimas en la cara. De esta forma demuestra que la causalidad sensorial no es unidireccional, pues la visi\u00f3n puede influir en el sonido, y viceversa. \u00a0Junto a su compa\u00f1era Noelle Stiles han explotado este proceso para estimular la corteza visual con se\u00f1ales auditivas que codifican la informaci\u00f3n sobre el entorno. Para ello han utilizado asociaciones que cualquiera conoce, como relacionar un tono alto a lugares elevados en el espacio o sonidos ruidosos con luces brillantes.<\/p>\n<p>El algoritmo de vOICe escanea cada imagen de la c\u00e1mara de izquierda a derecha, y para cada columna de p\u00edxeles genera un sonido con una frecuencia y volumen que depende de la ubicaci\u00f3n vertical y el brillo de los p\u00edxeles. De esta forma, muchos p\u00edxeles brillantes en la parte superior de una columna se traducir\u00edan en un sonido de alta frecuencia, mientras que p\u00edxeles oscuros en la parte baja dar\u00edan lugar a un sonido m\u00e1s tranquilo, en un tono m\u00e1s bajo. Finalmente, unos auriculares env\u00edan el sonido procesado al o\u00eddo del usuario, permiti\u00e9ndole asociar diferentes sonidos a objetos y elementos de su entorno.<\/p>\n<p>Los investigadores realizaron pruebas tanto con personas videntes como invidentes. A los primeros se les pidi\u00f3 emparejar im\u00e1genes (rayas, manchas, texturas) con sonidos sin ning\u00fan tipo de formaci\u00f3n ni instrucciones previas, mientras que los invidentes deb\u00edan tocar texturas y combinarlas con sonidos. Ambos grupos mostraron una capacidad intuitiva para relacionar texturas e im\u00e1genes con los sonidos asociados. Sorprendentemente, el rendimiento del grupo sin entrenamiento no difiri\u00f3 mucho de los preparados.<\/p>\n<\/div>\n<div>\n<div class=\"mceTemp mceIEcenter\" style=\"text-align: justify;\">\n<dl id=\"attachment_507\" class=\"wp-caption aligncenter\" style=\"width: 160px;\">\n<dt class=\"wp-caption-dt\"><a href=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device.jpg\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" data-attachment-id=\"507\" data-permalink=\"https:\/\/www.bairesac.com\/blog\/archivo\/502\/the-voice-device\" data-orig-file=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device.jpg?fit=926%2C1020&amp;ssl=1\" data-orig-size=\"926,1020\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;}\" data-image-title=\"the voice device\" data-image-description=\"&lt;p&gt;Esquema de codificaci\u00f3n de vOICe. Fuente: Caltech&lt;\/p&gt;\n\" data-image-caption=\"&lt;p&gt;Esquema de codificaci\u00f3n de vOICe. Fuente: Caltech&lt;\/p&gt;\n\" data-medium-file=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device.jpg?fit=272%2C300&amp;ssl=1\" data-large-file=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device.jpg?fit=640%2C705&amp;ssl=1\" class=\"size-thumbnail wp-image-507 \" title=\"the voice device\" src=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device-150x150.jpg?resize=150%2C150\" alt=\"\" width=\"150\" height=\"150\" srcset=\"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device.jpg?resize=150%2C150&amp;ssl=1 150w, https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device.jpg?zoom=2&amp;resize=150%2C150&amp;ssl=1 300w, https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/the-voice-device.jpg?zoom=3&amp;resize=150%2C150&amp;ssl=1 450w\" sizes=\"(max-width: 150px) 100vw, 150px\" data-recalc-dims=\"1\" \/><\/a><\/dt>\n<dd class=\"wp-caption-dd\">Esquema de codificaci\u00f3n de vOICe. Fuente: Caltech<\/dd>\n<\/dl>\n<\/div>\n<p>&nbsp;<\/p>\n<p><strong>Conexiones preexistentes<\/strong><\/p>\n<p style=\"text-align: justify;\"><span style=\"text-align: justify;\">El estudio, descrito en un\u00a0art\u00edculo publicado en la revista especializada <\/span><em style=\"text-align: justify;\">Scientific Reports<\/em><span style=\"text-align: justify;\">, detect\u00f3 que el uso de vOICe para ver texturas \u201cilustra conexiones neuronales intuitivas entre dichas texturas y los sonidos, lo que implica que hay conexiones preexistentes\u201d, asegura Shimojo. Un ejemplo com\u00fan de estas conexiones es la sinestesia, por la cual la activaci\u00f3n de un sentido conduce a una experiencia sensorial diferente involuntaria, como ver un determinado color al o\u00edr un sonido espec\u00edfico. Aunque a\u00fan no sabr\u00edan determinar lo que hace cada regi\u00f3n sensorial del cerebro cuando procesa estas se\u00f1ales, tienen una idea aproximada. Para comprenderlo mejor est\u00e1n utilizando datos funcionales de resonancias magn\u00e9ticas para analizar la red neuronal.<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<p style=\"text-align: justify;\">M\u00e1s all\u00e1 de sus implicaciones pr\u00e1cticas, la investigaci\u00f3n plantea una importante pregunta filos\u00f3fica: \u00bfQu\u00e9 es ver? \u00ab\u00bfEs ver lo que pasa cuando abres los ojos? No, porque eso no es suficiente si la retina est\u00e1 da\u00f1ada \u00bfEs cuando se activa la corteza visual? Nuestra investigaci\u00f3n ha demostrado que la corteza visual puede activarse por el sonido, lo que indica que realmente no necesitamos los ojos para ver\u201d, se cuestiona Shimojo. Sea una cosa u otra, lo cierto es que con este tipo de aplicaciones se ofrece a los invidentes una experiencia visual a trav\u00e9s de otros sentidos.<\/p>\n<p style=\"text-align: justify;\">&nbsp;<\/p>\n<p style=\"text-align: justify;\">Fuente: Tendencias21<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Aprovecha la capacidad intr\u00ednseca de crear im\u00e1genes desde la interacci\u00f3n multisensorial. Investigadores del Instituto de Tecnolog\u00eda de California han descubierto que las conexiones neuronales intr\u00ednsecas se pueden emplear en dispositivos de asistencia para ayudar a personas ciegas a detectar su entorno sin necesidad de una intensa concentraci\u00f3n u horas de entrenamiento. Utilizando unas gafas conectadas [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":510,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"footnotes":"","jetpack_publicize_message":"","jetpack_is_tweetstorm":false,"jetpack_publicize_feature_enabled":true},"categories":[1],"tags":[132,135,133,14,134],"jetpack_publicize_connections":[],"aioseo_notices":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2015\/11\/ciegos1.jpg?fit=2252%2C1524&ssl=1","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p8C7ru-86","jetpack-related-posts":[{"id":1545,"url":"https:\/\/www.bairesac.com\/blog\/archivo\/1545","url_meta":{"origin":502,"position":0},"title":"La tecnolog\u00eda da voz a quienes no pueden hablar","date":"8 agosto, 2016","format":false,"excerpt":"Recurren a la donaci\u00f3n de voces para crear un habla digital personalizada. La voz es una parte esencial de la identidad, pues por ella se pueden transmitir otros rasgos como la edad, la personalidad o el estilo de vida. Sin embargo, muchas personas sufren un trastorno del lenguaje que les\u2026","rel":"","context":"En &quot;Educaci\u00f3n&quot;","img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":2289,"url":"https:\/\/www.bairesac.com\/blog\/archivo\/2289","url_meta":{"origin":502,"position":1},"title":"El contraste de por vida 10 veces m\u00e1s r\u00e1pido, facilita el acceso a nuevos descubrimientos.","date":"28 marzo, 2018","format":false,"excerpt":"Explore la interacci\u00f3n molecular a la velocidad de la vida con el SPAL FALCON de Leica Microsystems. Mannheim, Alemania. Leica Microsystems anuncia el SP8 FALCON, el primer microscopio de contraste de por vida verdaderamente integrado en el mundo. El SP8 FALCON puede grabar un contraste de por vida 10 veces\u2026","rel":"","context":"En &quot;Investigaci\u00f3n&quot;","img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2018\/03\/csm_LeicaMicrosystems_PR_MouseEmbryo_FALCON_FLIM_proc_RGB_March2018_8e8ebd9534.jpg?fit=800%2C301&ssl=1&resize=350%2C200","width":350,"height":200},"classes":[]},{"id":1849,"url":"https:\/\/www.bairesac.com\/blog\/archivo\/1849","url_meta":{"origin":502,"position":2},"title":"\u00bfQu\u00e9 es la patolog\u00eda digital?","date":"13 julio, 2017","format":false,"excerpt":"La patolog\u00eda digital incorpora la adquisici\u00f3n, manejo, compartir e interpretaci\u00f3n de informaci\u00f3n de patolog\u00eda - incluyendo diapositivas y datos - en un entorno digital. Las diapositivas digitales se crean cuando se capturan diapositivas de cristal con un dispositivo de escaneado, para proporcionar una imagen digital de alta resoluci\u00f3n que se\u2026","rel":"","context":"En &quot;Educaci\u00f3n&quot;","img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2017\/07\/Integrate-landing-page.jpg?fit=1200%2C614&ssl=1&resize=350%2C200","width":350,"height":200},"classes":[]},{"id":1068,"url":"https:\/\/www.bairesac.com\/blog\/archivo\/1068","url_meta":{"origin":502,"position":3},"title":"Crean sensores de piel artificial a partir de notas adhesivas","date":"26 febrero, 2016","format":false,"excerpt":"Investigadores de la Universidad Kaust en Arabia Saud\u00ed han desarrollado una plataforma que imita las funciones sensoriales de la piel humana. Bautizada como Paper Skin, se trata del primer dispositivo de este tipo de bajo coste fabricado con materiales dom\u00e9sticos com\u00fanmente disponibles, como los posits, papel de aluminio, esponjas o\u2026","rel":"","context":"En &quot;Educaci\u00f3n&quot;","img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2016\/02\/papelpiel.png?resize=350%2C200","width":350,"height":200},"classes":[]},{"id":2312,"url":"https:\/\/www.bairesac.com\/blog\/archivo\/2312","url_meta":{"origin":502,"position":4},"title":"Los 7 pasos para la patolog\u00eda digital","date":"28 mayo, 2018","format":false,"excerpt":"Es hora de pasar a la tecnolog\u00eda digital en patolog\u00eda \"No hay nada malo con el microscopio\". \"Nuestros sistemas de informaci\u00f3n no se integrar\u00e1n con otras tecnolog\u00edas\". \"El cambio es dif\u00edcil\". Estas son algunas de las preocupaciones que los pat\u00f3logos tienen sobre la patolog\u00eda digital. Pero a medida que aprenden\u2026","rel":"","context":"En &quot;Investigaci\u00f3n&quot;","img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2018\/05\/img-3-1.png?fit=800%2C600&ssl=1&resize=350%2C200","width":350,"height":200},"classes":[]},{"id":2267,"url":"https:\/\/www.bairesac.com\/blog\/archivo\/2267","url_meta":{"origin":502,"position":5},"title":"Todos en la misma p\u00e1gina con la \u00faltima versi\u00f3n de la aplicaci\u00f3n AirLab de Leica Microsystems","date":"16 febrero, 2018","format":false,"excerpt":"Vea im\u00e1genes en vivo de todos los microscopios conectados en una vista general en miniatura. La aplicaci\u00f3n AirLab de Leica Microsystems se utiliza con dispositivos m\u00f3viles para capturar, medir, archivar y hacer anotaciones en im\u00e1genes de microscopio. La popular aplicaci\u00f3n no se limita a las soluciones wifi para educaci\u00f3n de\u2026","rel":"","context":"En &quot;Educaci\u00f3n&quot;","img":{"alt_text":"","src":"https:\/\/i0.wp.com\/www.bairesac.com\/blog\/wp-content\/uploads\/2018\/02\/csm_wifi-education-appli-3-1_0335548110.jpg?fit=1200%2C534&ssl=1&resize=350%2C200","width":350,"height":200},"classes":[]}],"jetpack_likes_enabled":true,"_links":{"self":[{"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/posts\/502"}],"collection":[{"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/comments?post=502"}],"version-history":[{"count":18,"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/posts\/502\/revisions"}],"predecessor-version":[{"id":595,"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/posts\/502\/revisions\/595"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/media\/510"}],"wp:attachment":[{"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/media?parent=502"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/categories?post=502"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.bairesac.com\/blog\/wp-json\/wp\/v2\/tags?post=502"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}