{"id":111710,"date":"2018-06-15T17:39:32","date_gmt":"2018-06-15T17:39:32","guid":{"rendered":"http:\/\/elluchador.info\/web\/?p=111710"},"modified":"2018-06-15T17:39:32","modified_gmt":"2018-06-15T17:39:32","slug":"las-maquinas-comienzan-a-mirar-el-mundo-con-ojos-humanos","status":"publish","type":"post","link":"https:\/\/elluchador.info\/?p=111710","title":{"rendered":"Las m\u00e1quinas comienzan a mirar el mundo con ojos humanos"},"content":{"rendered":"<p style=\"text-align: justify;\">Uno de los grandes retos de la inteligencia artificial es el de desenvolverse en un entorno natural, m\u00e1s all\u00e1 de instrucciones precisas y situaciones controladas. Por ejemplo, los desarrolladores del fascinante AlphaGo, <a href=\"https:\/\/elpais.com\/tecnologia\/2016\/03\/17\/actualidad\/1458220035_319892.html\" target=\"_blank\" rel=\"noopener\">el programa capaz de arrasar a los campeones del milenario juego Go<\/a>, reconoc\u00edan que si de pronto sumaran un cuadrante m\u00e1s al tablero estar\u00edan perdidos. Del mismo modo, un brazo rob\u00f3tico necesita condiciones muy concretas para poder desarrollar su tarea. No son capaces de observar el entorno, abrir el foco, deducir que se ha producido un cambio sustancial y adaptarse a \u00e9l.<\/p>\n<p style=\"text-align: justify;\">Uno de los principales obst\u00e1culos est\u00e1 en la forma de mirar de las m\u00e1quinas. Los mam\u00edferos, por ejemplo, sabemos identificar m\u00faltiples factores de un solo vistazo: objetos superpuestos, incidencia de la luz, distancias&#8230; Todo se suma en una \u00fanica representaci\u00f3n mental del espacio que permite interactuar con \u00e9l. Y es ese objetivo el que mueve a Google DeepMind, la divisi\u00f3n de inteligencia artificial del gigante tecnol\u00f3gico, que acaba de publicar <a href=\"http:\/\/science.sciencemag.org\/cgi\/doi\/10.1126\/science.aar6170\" target=\"_blank\" rel=\"noopener\">unos llamativos logros en la revista <em>Science<\/em>.<\/a><\/p>\n<p style=\"text-align: justify;\">DeepMind presenta una serie de pruebas virtuales realizadas con GQN, un programa capaz de formarse una representaci\u00f3n abstracta de lo que hay <em>frente a sus ojos<\/em> a partir de un par de simples vistazos. As\u00ed fue como esta empresa venci\u00f3 al Go: en lugar de pensar en cada ficha y cada movimiento, consiguieron que la m\u00e1quina viera la partida en un plano general, identificando a grandes rasgos c\u00f3mo y por d\u00f3nde deb\u00edan discurrir las jugadas. Hasta ahora, cuando se pretende que una m\u00e1quina <em>imagine<\/em> un mapa de lo que est\u00e1 viendo, se la alimenta con toneladas de informaci\u00f3n: numerosas im\u00e1genes y etiquetas que ayuden a identificar objetos y escenarios.<\/p>\n<p style=\"text-align: justify;\">Pero el abordaje de DeepMind es tan elegante como complejo: su m\u00e1quina solo ve un par de fotos en dos dimensiones de la escena y, a partir de ah\u00ed, es capaz de hacerse una composici\u00f3n de lugar en 3D de todo el paisaje. Al ver una estancia en la que un cubo rojo tapa por delante a una bola verde, este programa logra imaginar que, desde el lado opuesto de la sala, es la bola verde la que apenas deja ver al cubo rojo.<\/p>\n<p style=\"text-align: justify;\">\u00abEn este trabajo, hemos demostrado que una sola arquitectura neuronal puede aprender a percibir, interpretar y representar escenas sint\u00e9ticas sin ning\u00fan etiquetado humano de los contenidos de estas escenas\u00bb, explican los investigadores de DeepMind en su estudio, liderado por S. M. Ali Eslami. De este modo, es capaz de producir esas im\u00e1genes precisas y consistentes de la escena desde nuevos puntos de vista. La m\u00e1quina aprende por s\u00edntesis, \u00ablo que le permite expresar la presencia de texturas, partes, objetos, luces y escenas de manera concisa y en un nivel de abstracci\u00f3n adecuadamente alto\u00bb, seg\u00fan DeepMind.<\/p>\n<p style=\"text-align: justify;\">Es decir, captura y sintetiza los detalles importantes de su entorno, como las posiciones, aspecto y colores de m\u00faltiples objetos, la configuraci\u00f3n de los \u00e1ngulos de uni\u00f3n de un brazo de robot o el dise\u00f1o de un laberinto. Esta inteligencia artificial absorbe todos los detalles estad\u00edsticamente significativos, como patrones habituales, texturas, colores y simetr\u00edas comunes para concentrar toda su capacidad en realizar una descripci\u00f3n concisa y abstracta de la escena. As\u00ed la m\u00e1quina es capaz de inferir la composici\u00f3n general, en lugar de perderse en innumerables detalles concretos. Adem\u00e1s, GQN aprende este comportamiento por s\u00ed mismo y de una forma que le permite aplicarlo en cualquier entorno, sin ninguna especificaci\u00f3n previa de las leyes de perspectiva o de iluminaci\u00f3n, como suceder\u00eda con un humano.<\/p>\n<p style=\"text-align: justify;\">\u00abNuestro trabajo ilustra un enfoque poderoso para el aprendizaje autom\u00e1tico de representaciones de escenas\u00bb, explica DeepMind, \u00aballanando el camino hacia la comprensi\u00f3n, imaginaci\u00f3n, planificaci\u00f3n y comportamiento de escenas sin ninguna supervisi\u00f3n\u00bb. En resumen, percibir e interpretar el mundo en solitario, como cualquiera de nosotros. Hace poco esta misma empresa <a href=\"https:\/\/elpais.com\/elpais\/2016\/09\/19\/ciencia\/1474303742_534490.html\" target=\"_blank\" rel=\"noopener\">consigui\u00f3 recrear de cero el habla humana<\/a> de una forma tan realista que incluso preocupa a los especialistas.<\/p>\n<p style=\"text-align: justify;\">La ventaja a\u00f1adida de este m\u00e9todo es que las representaciones que reflejan de manera sucinta la composici\u00f3n del entorno permiten a las m\u00e1quinas actuar en esos entornos de forma m\u00e1s s\u00f3lida y con menos interacciones. Por ejemplo, en lugar de especificar la forma precisa de un brazo rob\u00f3tico, esta inteligencia artificial puede apreciar a grandes rasgos la configuraci\u00f3n de sus uniones y los \u00e1ngulos en los que se mueve, y a partir de esa abstracci\u00f3n es m\u00e1s f\u00e1cil que se adapte a una realidad inestable y cambiante como la del mundo real.<\/p>\n<p style=\"text-align: justify;\">Aunque precisamente ah\u00ed est\u00e1 la mayor pega de este estudio: solo ha sido probado con im\u00e1genes y entornos generados por ordenador, por las dificultades de estudiarlo en un entorno totalmente controlado. \u00abLo m\u00e1s importante es que sus experimentos est\u00e1n restringidos a escenas 3D simples que consisten en unos pocos objetos geom\u00e9tricos b\u00e1sicos\u00bb, se\u00f1ala en <em>Science<\/em> el especialista\u00a0Matthias Zwicker, de la Universidad de Maryland. Y a\u00f1ade: \u00abPor lo tanto, no est\u00e1 claro lo cerca que se encuentra de comprender entornos complejos del mundo real, lo que lo har\u00eda \u00fatil, por ejemplo, para desarrollar el control pr\u00e1ctico de los robots\u00bb. \u00abNo obstante, su t\u00e9cnica introduce una serie de contribuciones cruciales que probablemente lo hagan posible en el futuro\u00bb, afirma Zwicker.<\/p>\n<p>&nbsp;<\/p>\n<p><strong>Elpais.com<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Uno de los grandes retos de la inteligencia artificial es el de desenvolverse en un entorno natural, m\u00e1s all\u00e1 de instrucciones precisas y situaciones controladas. Por ejemplo, los desarrolladores del fascinante AlphaGo, el programa capaz de arrasar a los campeones del milenario juego Go, reconoc\u00edan que si de pronto sumaran un cuadrante m\u00e1s al tablero [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":111711,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":{"0":"post-111710","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecnologia"},"_links":{"self":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/111710","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=111710"}],"version-history":[{"count":0,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/111710\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/media\/111711"}],"wp:attachment":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=111710"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=111710"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=111710"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}