{"id":251385,"date":"2024-10-03T11:10:00","date_gmt":"2024-10-03T15:10:00","guid":{"rendered":"https:\/\/elluchador.info\/?p=251385"},"modified":"2024-10-03T18:10:48","modified_gmt":"2024-10-03T22:10:48","slug":"nvidia-sorprende-con-nueva-ia-que-programa-en-segundos-explica-memes-analiza-texto-y-mucho-mas","status":"publish","type":"post","link":"https:\/\/elluchador.info\/?p=251385","title":{"rendered":"Nvidia sorprende con nueva IA que programa en segundos, explica memes, analiza texto y mucho m\u00e1s"},"content":{"rendered":"\n<p><strong>Nvidia&nbsp;ha presentado su nuevo modelo de&nbsp;inteligencia artificial, NVLM 1.0, capaz de generar c\u00f3digo en cuesti\u00f3n de segundos, responder consultas de cultura general e incluso explicar memes.&nbsp;<\/strong>Este modelo tiene la habilidad de comprender im\u00e1genes, gr\u00e1ficos y escritura a mano.<\/p>\n\n\n\n<p>Seg\u00fan la compa\u00f1\u00eda, NVLM 1.0 est\u00e1 dise\u00f1ado para competir con los modelos de OpenAI y Meta. Nvidia destac\u00f3: \u201cPresentamos NVLM 1.0, una familia de modelos de lenguaje grande multimodales (LLM) de clase de frontera que logran resultados de vanguardia en tareas de lenguaje-visi\u00f3n, rivalizando con los modelos propietarios l\u00edderes (por ejemplo, GPT-4) y los modelos de acceso abierto (por ejemplo, Llama 3-V 405B e InternVL 2)\u201d.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">C\u00f3mo es el nuevo modelo de IA de Nvidia<\/h2>\n\n\n\n<p>La nueva familia de modelos de inteligencia artificial de Nvidia, denominada NVLM 1.0, tiene la capacidad de interpretar im\u00e1genes y ofrecer respuestas precisas. Un ejemplo proporcionado por la compa\u00f1\u00eda muestra c\u00f3mo el modelo responde a una foto de Jensen Huang, su CEO, cuando un usuario pregunta qui\u00e9n es la persona en la imagen.<\/p>\n\n\n\n<p><strong>El modelo tambi\u00e9n es capaz de interpretar im\u00e1genes de apuntes escritos a mano.&nbsp;<\/strong>En una demostraci\u00f3n, se utiliz\u00f3 una imagen de un texto manuscrito que conten\u00eda un conjunto de par\u00e1metros de un c\u00f3digo, acompa\u00f1ado de la instrucci\u00f3n: \u201cEscribe c\u00f3digo basado en el pseudoc\u00f3digo proporcionado\u201d.<\/p>\n\n\n\n<p>Adem\u00e1s, se present\u00f3 c\u00f3mo NVLM 1.0 era capaz de comprender memes, como uno que muestra un tigre y un gato, para luego explic\u00e1rselo al usuario.<\/p>\n\n\n\n<p>La empresa explica el caso del meme de la siguiente manera:<\/p>\n\n\n\n<p>\u201cPor ejemplo, nuestro modelo puede entender el humor detr\u00e1s del meme \u201cabstracto vs. papel\u201d en el ejemplo (a) al realizar reconocimiento \u00f3ptico de caracteres (OCR) para reconocer las etiquetas de texto para cada imagen y usar el razonamiento para comprender por qu\u00e9 yuxtaponer \u201clo abstracto\u201d (etiquetado con un lince de aspecto feroz) y \u201cel papel\u201d (etiquetado con un gato dom\u00e9stico) es gracioso\u201d.<\/p>\n\n\n\n<p>\u201cEl modelo NVLM-1.0-D 72B demuestra una buena capacidad de seguimiento de instrucciones. Tambi\u00e9n puede generar una descripci\u00f3n detallada y de muy alta calidad de la imagen proporcionada\u201d, puntualizan la compa\u00f1\u00eda.<\/p>\n\n\n\n<p>Nvidia ha subrayado que su modelo NVLM 1.0 ha sido entrenado utilizando datos seleccionados con sumo cuidado.&nbsp;<strong>Esto implica que se han elegido meticulosamente los datos empleados para su entrenamiento<\/strong>, con el fin de garantizar que sean de alta calidad y relevantes para una variedad de tareas.<\/p>\n\n\n\n<p>Asimismo, se ha proporcionado informaci\u00f3n detallada sobre los conjuntos de datos multimodales (que incluyen texto, im\u00e1genes y otros tipos de informaci\u00f3n) utilizados tanto en la fase de preentrenamiento como en el ajuste fino supervisado, donde se optimizan las habilidades del modelo.<\/p>\n\n\n\n<p>Los resultados del equipo de Nvidia indican que, para obtener un modelo de alta calidad, es m\u00e1s importante contar con conjuntos de datos variados y bien dise\u00f1ados que con una cantidad masiva de datos.<\/p>\n\n\n\n<p>Seg\u00fan Nvidia, la calidad y diversidad de los datos es un factor m\u00e1s determinante que la cantidad (escala) de datos, sin importar qu\u00e9 tipo de arquitectura se utilice para el modelo. Esto sugiere que modelos como NVLM 1.0 pueden lograr un rendimiento superior cuando se entrenan con datos altamente selectivos y variados.<\/p>\n\n\n\n<p>\u201cNuestro NVLM-D-1.0-72B demuestra capacidades vers\u00e1tiles en varias tareas multimodales al utilizar conjuntamente OCR, razonamiento, localizaci\u00f3n, sentido com\u00fan, conocimiento del mundo y capacidad de codificaci\u00f3n\u201d, apuntan<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">C\u00f3mo acceder a la IA de Nvidia<\/h2>\n\n\n\n<p>De acuerdo con Nvidia, liderada por Jensen Huang, la compa\u00f1\u00eda planea compartir los pesos del modelo y abrir el c\u00f3digo de NVLM 1.0 para la comunidad, con el fin de impulsar la investigaci\u00f3n en el campo de la inteligencia artificial.<\/p>\n\n\n\n<p>Sin embargo,<strong>&nbsp;hasta el momento, el c\u00f3digo de NVLM 1.0 a\u00fan no ha sido liberado.&nbsp;<\/strong>En la p\u00e1gina oficial del proyecto, Nvidia ha se\u00f1alado que esta apertura suceder\u00e1 pr\u00f3ximamente.<\/p>\n\n\n\n<p><strong><em>Con informaci\u00f3n de infobae.<\/em><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nvidia&nbsp;ha presentado su nuevo modelo de&nbsp;inteligencia artificial, NVLM 1.0, capaz de generar c\u00f3digo en cuesti\u00f3n de segundos, responder consultas de cultura general e incluso explicar memes.&nbsp;Este modelo tiene la habilidad de comprender im\u00e1genes, gr\u00e1ficos y escritura a mano. Seg\u00fan la compa\u00f1\u00eda, NVLM 1.0 est\u00e1 dise\u00f1ado para competir con los modelos de OpenAI y Meta. Nvidia [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":251386,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":{"0":"post-251385","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecnologia"},"_links":{"self":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/251385","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=251385"}],"version-history":[{"count":2,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/251385\/revisions"}],"predecessor-version":[{"id":251458,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/251385\/revisions\/251458"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/media\/251386"}],"wp:attachment":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=251385"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=251385"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=251385"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}