{"id":5623,"date":"2026-04-25T17:38:33","date_gmt":"2026-04-25T20:38:33","guid":{"rendered":"http:\/\/laf5.publisher.highstack.com.ar\/?p=5623"},"modified":"2026-04-25T17:38:33","modified_gmt":"2026-04-25T20:38:33","slug":"chatgpt-y-deepseek-entraron-en-una-partida-de-dragones-y-mazmorras-como-conejillos-de-indias-lo-que-ocurrio-durante-el-juego-dice-mas-del-futuro-de-la-ia-de-lo-que-parece","status":"publish","type":"post","link":"https:\/\/laf5.publisher.highstack.com.ar\/?p=5623","title":{"rendered":"ChatGPT y DeepSeek entraron en una partida de Dragones y Mazmorras como conejillos de Indias. Lo que ocurri\u00f3 durante el juego dice m\u00e1s del futuro de la IA de lo que parece"},"content":{"rendered":"<div>\n<p>La mayor\u00eda de pruebas que se usan para evaluar a la inteligencia artificial duran segundos o, como mucho, unos pocos minutos. Responder a una pregunta, resumir un texto, escribir un fragmento de c\u00f3digo. Pero, en el mundo real no funciona as\u00ed: exige mantener el hilo durante horas, recordar lo que se dijo antes y tomar decisiones encadenadas.<\/p>\n<p>Para poner este l\u00edmite bajo el microscopio, un grupo de investigadores decidi\u00f3 llevar a ChatGPT, DeepSeek y otros modelos de lenguaje a un terreno inesperado: una partida de Dragones y Mazmorras.<\/p>\n<h2>Un juego de rol como laboratorio de la IA<\/h2>\n<figure id=\"attachment_2000218753\" aria-describedby=\"caption-attachment-2000218753\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-2000218753\" src=\"https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-16-3.jpg\" alt=\"ChatGPT y DeepSeek entraron en una partida de Dragones y Mazmorras como conejillos de Indias. Lo que ocurri\u00f3 durante el juego dice m\u00e1s del futuro de la IA de lo que parece\" width=\"1500\" height=\"1000\" srcset=\"https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-16-3.jpg 1500w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-16-3-300x200.jpg 300w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-16-3-1024x683.jpg 1024w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-16-3-768x512.jpg 768w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-16-3-672x448.jpg 672w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-16-3-960x640.jpg 960w\" sizes=\"auto, (max-width: 639px) 100vw, (max-width: 1023px) calc(100vw - 2rem), (max-width: 1258px) calc((100vw - 3.68rem) * 2 \/ 3), 800px\"\/><figcaption id=\"caption-attachment-2000218753\" class=\"wp-caption-text\">\u00a9 Moroboshi \/ Wikimedia.<\/figcaption><\/figure>\n<p>Este experimento, presentado en la conferencia NeurIPS y publicado en OpenReview, fue liderado por Raj Ammanabrolu, de la Universidad de California en San Diego. La idea era simple, pero potente: usar un juego de rol como entorno controlado para evaluar planificaci\u00f3n en m\u00faltiples pasos, cumplimiento de reglas y coherencia narrativa. En Dragones y Mazmorras no basta con dar una respuesta brillante: hay que recordar habilidades, gestionar recursos, coordinarse con un equipo y sostener un personaje a lo largo del tiempo.<\/p>\n<p>Para evitar que el caos del mundo real contaminara los resultados, los modelos se conectaron a un motor de juego que incorporaba reglas, mapas y recursos. Las campa\u00f1as se centraron en el combate, con los sistemas asumiendo distintos roles: jugadores, aliados y criaturas enemigas. Tambi\u00e9n hubo partidas contra unos 2.000 jugadores humanos experimentados, lo que permiti\u00f3 comparar el rendimiento de la IA frente a decisiones humanas en escenarios complejos.<\/p>\n<h2>Coherencia, estrategia\u2026 y p\u00e9rdida del hilo<\/h2>\n<figure id=\"attachment_2000218755\" aria-describedby=\"caption-attachment-2000218755\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-2000218755\" src=\"https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-17-3.jpg\" alt=\"ChatGPT y DeepSeek entraron en una partida de Dragones y Mazmorras como conejillos de Indias. Lo que ocurri\u00f3 durante el juego dice m\u00e1s del futuro de la IA de lo que parece\" width=\"1500\" height=\"1000\" srcset=\"https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-17-3.jpg 1500w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-17-3-300x200.jpg 300w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-17-3-1024x683.jpg 1024w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-17-3-768x512.jpg 768w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-17-3-672x448.jpg 672w, https:\/\/es.gizmodo.com\/app\/uploads\/2026\/02\/Diseno-sin-titulo-17-3-960x640.jpg 960w\" sizes=\"auto, (max-width: 639px) 100vw, (max-width: 1023px) calc(100vw - 2rem), (max-width: 1258px) calc((100vw - 3.68rem) * 2 \/ 3), 800px\"\/><figcaption id=\"caption-attachment-2000218755\" class=\"wp-caption-text\">\u00a9 Dungeons &amp; Dragons.<\/figcaption><\/figure>\n<p>Al inicio de las partidas, los modelos se desenvolv\u00edan con soltura. Gestionaban acciones disponibles, describ\u00edan movimientos y segu\u00edan las reglas b\u00e1sicas del sistema. Pero a medida que las sesiones se alargaban, aparec\u00eda un patr\u00f3n inc\u00f3modo: la coherencia empezaba a degradarse. Algunos sistemas tend\u00edan a repetir acciones o descripciones; otros olvidaban decisiones tomadas turnos atr\u00e1s o perd\u00edan el tono del personaje que interpretaban.<\/p>\n<p>En la comparaci\u00f3n directa, DeepSeek mostr\u00f3 respuestas m\u00e1s breves y repetitivas, mientras que otros modelos variaban mejor su estilo seg\u00fan la clase del personaje. ChatGPT qued\u00f3 en una posici\u00f3n intermedia: combin\u00f3 descripciones narrativas con comentarios t\u00e1cticos, aunque tambi\u00e9n sufri\u00f3 p\u00e9rdidas de consistencia cuando la partida se extend\u00eda. Lo sorprendente es que estos fallos no eran errores \u201ctontos\u201d, sino s\u00edntomas de una limitaci\u00f3n m\u00e1s profunda: mantener un estado mental coherente durante interacciones largas sigue siendo dif\u00edcil para los grandes modelos de lenguaje.<\/p>\n<h2>Lo que un juego dice sobre el futuro de la IA<\/h2>\n<p>Puede parecer anecd\u00f3tico que una IA se equivoque en una mazmorra, pero el paralelismo es directo con aplicaciones del mundo real. Asistentes que deben gestionar procesos largos, sistemas que coordinan tareas en infraestructuras cr\u00edticas o agentes que interact\u00faan durante horas con personas comparten el mismo problema de fondo: sostener memoria, contexto y estrategia sin perder el hilo.<\/p>\n<p>Los investigadores ya trabajan en simular campa\u00f1as completas, mucho m\u00e1s largas, para estresar a\u00fan m\u00e1s a los modelos. La lecci\u00f3n es clara: la IA ha avanzado de forma espectacular en tareas cortas, pero el futuro pasa por aprender a no \u201colvidarse de la historia\u201d cuando el problema se alarga. Y si hoy se le cae el guion en una partida de Dragones y Mazmorras, ma\u00f1ana podr\u00eda ocurrir algo parecido en sistemas donde no hay dados, sino decisiones con consecuencias reales.<\/p>\n<\/p><\/div>\n","protected":false},"excerpt":{"rendered":"<p>La mayor\u00eda de pruebas que se usan para evaluar a la inteligencia artificial duran segundos o, como mucho, unos pocos minutos. Responder a una pregunta, resumir un texto, escribir un fragmento de c\u00f3digo. Pero, en el mundo real no funciona as\u00ed: exige mantener el hilo durante horas, recordar lo que se dijo antes y tomar [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":5624,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-5623","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categoria"],"_links":{"self":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/5623","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=5623"}],"version-history":[{"count":0,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/5623\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=\/wp\/v2\/media\/5624"}],"wp:attachment":[{"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=5623"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=5623"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/laf5.publisher.highstack.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=5623"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}