{"id":7867,"date":"2025-11-22T10:10:28","date_gmt":"2025-11-22T13:10:28","guid":{"rendered":"https:\/\/audec.edu.uy\/?p=7867"},"modified":"2025-11-22T10:12:13","modified_gmt":"2025-11-22T13:12:13","slug":"chat-gpt-y-sedentarismo-cognitivo-aprender-de-consultas-a-la-ia-implica-adquirir-conocimientos-menos-profundos-que-googleando","status":"publish","type":"post","link":"https:\/\/audec.edu.uy\/index.php\/2025\/11\/22\/chat-gpt-y-sedentarismo-cognitivo-aprender-de-consultas-a-la-ia-implica-adquirir-conocimientos-menos-profundos-que-googleando\/","title":{"rendered":"Chat GPT y sedentarismo cognitivo: aprender de consultas a la IA implica adquirir conocimientos menos profundos que googleando"},"content":{"rendered":"\n<p>22 DE NOVIEMBRE<\/p>\n\n\n\n<p>LA DIARIA<\/p>\n\n\n\n<p><strong>Por Leo Lagos<\/strong><\/p>\n\n\n\n<p>Investigaci\u00f3n que compar\u00f3 aprender sobre un tema o bien pregunt\u00e1ndole a una inteligencia artificial generativa como Chat GPT, o bien haciendo b\u00fasquedas en Google, arroja que con la IA se desarrollan conocimientos menos profundos y menos originales debido a una actitud m\u00e1s pasiva ante la informaci\u00f3n.<\/p>\n\n\n\n<p>La inteligencia artificial (IA) lleg\u00f3 para quedarse. Eso es casi irrebatible, sobre todo cuando nos referimos a las IA generativas, como Chat GPT, OpenIA y dem\u00e1s, que interact\u00faan con nosotros y nos ofrecen m\u00faltiples posibilidades. Ahora, para qu\u00e9 las usamos, en qu\u00e9 contextos y qu\u00e9 consecuencias tiene ese uso, en el que muchas veces les delegamos tareas para ahorrarnos trabajo cognitivo, no s\u00f3lo es enteramente discutible, sino que requiere conocimiento.<\/p>\n\n\n\n<p>Lo cierto es que los medios est\u00e1n llenos tanto de discursos propagand\u00edsticos de quienes abrazan a la IA como una maravilla tecnol\u00f3gica capaz de cumplir todo tipo de promesas (o de interesados en que creamos eso), como de detractores que temen el fin del trabajo, la humanidad y el mundo tal cual lo conoc\u00edamos. En el medio, la evidencia concreta de c\u00f3mo puede afectarnos usar la IA escasea.<\/p>\n\n\n\n<p>En este contexto, la reciente publicaci\u00f3n de un art\u00edculo, titulado \u201cEvidencia experimental de los efectos de los grandes modelos de lenguaje frente a la b\u00fasqueda web en la profundidad del aprendizaje\u201d, merece celebrarse. Sin catastrofismos ni poner el grito en el cielo, el trabajo compara algo tan sencillo como qu\u00e9 pasa cuando aprendemos algo pregunt\u00e1ndole a una IA generativa, como Chat GPT, o leyendo el resumen de IA que nos da Google cuando hacemos una b\u00fasqueda, en comparaci\u00f3n con cuando buscamos activamente informaci\u00f3n a trav\u00e9s de Google y, tras visitar varias p\u00e1ginas, hacemos una s\u00edntesis propia de lo que le\u00edmos.<\/p>\n\n\n\n<p>\u00bfPor qu\u00e9 podr\u00eda interesar algo as\u00ed? En primer lugar, porque es algo que se est\u00e1 extendiendo. Y para seguir, porque podr\u00edamos pensar que muchas personas, y entre ellas muchas y muchos estudiantes, ya no estar\u00edan entrando siquiera a Wikipedia o a p\u00e1ginas respetables para obtener informaci\u00f3n, sino confiando en lo que los res\u00famenes generados por IA les dicen sobre un tema.<\/p>\n\n\n\n<p>Si bien en el art\u00edculo no participan investigadores de nuestro pa\u00eds \u2013lleva la firma de la investigadora Shiri Melumad, de la Facultad de Wharton, y su colega Jin Ho Yun, de la Iniciativa Wharton de Neurociencia, ambos de la Universidad de Pennsylvania, Estados Unidos\u2013, el tema que trata nos toca tan de cerca que amerita una excepci\u00f3n a nuestro abordaje habitual de las novedades en publicaciones cient\u00edficas. Aun as\u00ed, consultamos respecto del trabajo a \u00c1lvaro Cabana, investigador del Centro de Investigaci\u00f3n B\u00e1sica en Psicolog\u00eda (CibPsi) de la Facultad de Psicolog\u00eda de la Universidad de la Rep\u00fablica y miembro del Centro Interdisciplinario en Ciencia de Datos y Aprendizaje Autom\u00e1tico (Cicada) para mantener la (esperamos sana) costumbre de darle sabor local a esta secci\u00f3n. As\u00ed que vayamos a ver un poco en qu\u00e9 consisti\u00f3 esta investigaci\u00f3n.<\/p>\n\n\n\n<p><strong>Haci\u00e9ndose una pregunta desde una teor\u00eda<\/strong><\/p>\n\n\n\n<p>\u201c\u00bfPodr\u00eda la facilidad que ofrecen las s\u00edntesis de los grandes modelos de lenguaje tener costos en el aprendizaje en comparaci\u00f3n con la b\u00fasqueda web tradicional?\u201d, comienza pregunt\u00e1ndose en el trabajo la dupla de autores. Los grandes modelos de lenguaje, que se abrevian como LLM por su sigla en ingl\u00e9s, son justamente los que est\u00e1n detr\u00e1s de las inteligencias artificiales generativas ampliamente utilizadas en productos como Chat GPT, Gemini, DeepSeek o Perplexity.<\/p>\n\n\n\n<p>Pues bien, acerca de su pregunta, la pareja de investigadores ten\u00eda una idea de lo que podr\u00eda llegar a estar pasando. Esa idea se formula como una teor\u00eda que les permitir\u00e1 luego hacer hip\u00f3tesis. \u00bfQu\u00e9 dec\u00eda su teor\u00eda? Que \u201ccuando las personas aprenden sobre un tema a partir de s\u00edntesis de grandes modelos de lenguaje, corren el riesgo de desarrollar un conocimiento m\u00e1s superficial que cuando aprenden mediante b\u00fasquedas web est\u00e1ndar, incluso cuando los datos centrales de los resultados son los mismos\u201d.<\/p>\n\n\n\n<p>\u00bfPor qu\u00e9 piensan eso? Porque, como dicen, una \u201ccaracter\u00edstica inherente a los grandes modelos de lenguaje\u201d es la \u201cpresentaci\u00f3n de resultados como res\u00famenes de vastas cantidades de informaci\u00f3n en lugar de enlaces de b\u00fasqueda individuales\u201d. Seg\u00fan su forma de ver, ese despliegue de resultados autom\u00e1ticamente tiene consecuencias.<\/p>\n\n\n\n<p>Hay una m\u00e1xima de quienes hacen ejercicios de musculaci\u00f3n que en ingl\u00e9s dice \u201cno pain, no gain\u201d, es decir, \u201csin dolor, sin ganancia\u201d. M\u00e1s all\u00e1 de que eso no siempre es cierto \u2013y de hecho sufrir dolor por hacer mal ejercicio no implica ninguna ganancia\u2013, algo hay en que muchas veces los resultados van de la mano del esfuerzo aplicado a la tarea. Y las IA como Chat GPT justamente est\u00e1n all\u00ed, entre otras cosas, para evitarnos tal esfuerzo.<\/p>\n\n\n\n<p>\u201cAunque la necesidad de navegar y resumir diferentes fuentes de informaci\u00f3n puede hacer que el aprendizaje mediante b\u00fasquedas web implique mayor esfuerzo, tambi\u00e9n puede ofrecer la ventaja, a menudo ignorada, de construir estructuras de conocimiento m\u00e1s profundas y \u00fanicas\u201d, enfatizan en el trabajo. \u201cSi bien los grandes modelos de lenguaje ofrecen claras ventajas en cuanto a eficiencia para los usuarios, planteamos que esta mayor facilidad puede tener un coste: la reducci\u00f3n de la profundidad del conocimiento y la originalidad del pensamiento obtenidos de la b\u00fasqueda en ciertos contextos\u201d, plantean.<\/p>\n\n\n\n<p>Lo que dicen no es algo descabellado, sino que hay estudios de diversos equipos, pa\u00edses y d\u00e9cadas que muestran que el estar implicado en el proceso de aprendizaje, incluso en ciertas dificultades que deben sortearse, redundan en mejores aprendizajes. Los res\u00famenes autom\u00e1ticos dados por la IA generativa, sostienen, \u201creducen la necesidad de descubrir y sintetizar informaci\u00f3n de fuentes originales\u201d, pasos que a su entender son \u201cesenciales para el aprendizaje profundo\u201d.<\/p>\n\n\n\n<p>Por eso dicen que \u201cuna tesis central\u201d de su trabajo es que \u201csi bien los grandes modelos de lenguaje proporcionan una v\u00eda m\u00e1s r\u00e1pida para encontrar respuestas que la b\u00fasqueda web, al hacerlo inhiben un proceso fundamental para el aprendizaje: la exploraci\u00f3n autoguiada de informaci\u00f3n diversa que requiere s\u00edntesis original\u201d. Expresan tambi\u00e9n que \u201cal realizar b\u00fasquedas web tradicionales en plataformas como Google, hacemos m\u00e1s que acumular datos: tambi\u00e9n desarrollamos estructuras de conocimiento mediante un proceso iterativo de formulaci\u00f3n de consultas, recopilaci\u00f3n e interpretaci\u00f3n de informaci\u00f3n de diferentes sitios web y, posteriormente, integraci\u00f3n de este conocimiento en un todo coherente\u201d. Todo eso lleva a un \u201cproceso de \u2018construcci\u00f3n de sentido\u2019 a trav\u00e9s de la b\u00fasqueda web que puede ser altamente din\u00e1mico para los usuarios, caracterizado por el proceso recursivo de s\u00edntesis y revisi\u00f3n\u201d.<\/p>\n\n\n\n<p>Partiendo de all\u00ed, la dupla de investigadores se propuso poner todo esto a prueba. \u00bfImplicar\u00eda el dejar que la IA nos escupa res\u00famenes de diversos temas aprender menos de ellos en comparaci\u00f3n con googlear informaci\u00f3n al respecto en diversos sitios? Agreguemos otro detallecito: incluso ahora el propio Google, que naci\u00f3 como un indexador de sitios web, nos propone un resumen generado por IA que evacua nuestras dudas y que coloca antes que los resultados de las p\u00e1ginas con informaci\u00f3n al respecto. Si se fijan bien, al final de ese resumen generado por IA, en letras peque\u00f1as, dice una frase que suele pasarse por alto: \u201cLas respuestas de la IA pueden contener errores\u201d.<\/p>\n\n\n\n<p>Shiri Melumad y Jin Ho Yun se tomaron en serio el asunto de poner a prueba sus ideas. Para ello realizaron cuatro experimentos distintos. Y de tres de ellos realizaron r\u00e9plicas, es decir, que los realizaron dos veces con otras personas. En total, en los siete estudios participaron 10.462 sujetos adultos, con un promedio de edad de 42 a\u00f1os.<\/p>\n\n\n\n<p>\u00bfQuieren una respuesta r\u00e1pida pero no generada por inteligencia artificial de lo que pas\u00f3? Los autores reportan que \u201clos resultados de siete experimentos en l\u00ednea y de laboratorio respaldan\u201d sus predicciones. Pero veamos en concreto en qu\u00e9 consisti\u00f3 el primer experimento, ya que el resto vuelve sobre distintos aspectos de \u00e9l, salvo uno que tambi\u00e9n detallaremos y que, seg\u00fan nos comenta \u00c1lvaro Cabana, \u201ces como la cereza de la torta\u201d.<\/p>\n\n\n\n<p><strong>Buscar informaci\u00f3n y redactar un consejo con y sin IA<\/strong><\/p>\n\n\n\n<p>El primero de los experimentos que realizaron es, seg\u00fan dicen, \u201cuna prueba inicial\u201d de sus predicciones \u201cen un entorno natural\u201d.<\/p>\n\n\n\n<p>All\u00ed le pidieron a 1.136 personas de un panel, de las que terminaron analizando datos de 1.104, que investigaran informaci\u00f3n mediante b\u00fasquedas en Google o consultando a Chat GPT con el objetivo de asesorar a un amigo o amiga que quer\u00eda comenzar a armar un huerto en su casa. Luego de buscar la informaci\u00f3n por cualquiera de las dos v\u00edas (los participantes se asignaron aleatoriamente a una u otra forma de obtener informaci\u00f3n), se les pidi\u00f3 que efectivamente escribieran ese consejo para armar un huerto (sin contar para la escritura con ayuda de Chat GPT).<\/p>\n\n\n\n<p>Luego de haber escrito el consejo, se les pidi\u00f3 que puntuaran de 1 a 5, siendo 1 el equivalente a \u201ctotalmente en desacuerdo\u201d y 5 \u201ctotalmente de acuerdo\u201d, las siguientes tres opciones: \u201cAprend\u00ed cosas nuevas sobre el tema a partir de los resultados de Google\/Chat GPT\u201d; \u201cLos resultados de Google\/Chat GPT proporcionaron informaci\u00f3n completa sobre el tema\u201d; \u201cSiento que me apropio personalmente de lo que aprend\u00ed\u201d.<\/p>\n\n\n\n<p>Luego tuvieron que calificar con el mismo sistema de puntaje las frases \u201cDediqu\u00e9 mucho tiempo y esfuerzo a generar mi consejo\u201d y \u201cSiento responsabilidad personal sobre los consejos que di\u201d.<\/p>\n\n\n\n<p>Asimismo, se captur\u00f3 el tiempo que estuvieron buscando las respuestas, la cantidad de sitios que visitaron o de comandos que introdujeron a Chat GPT, y el tiempo que dedicaron a redactar sus consejos.<\/p>\n\n\n\n<p>Sus consejos fueron tambi\u00e9n analizados con herramientas de procesamiento de lenguaje natural para ver qu\u00e9 tan profundos eran, qu\u00e9 tan original era el lenguaje, y la cantidad de palabras y de datos contenidos en ellos.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 hallaron al analizar las 1.104 respuestas? La confirmaci\u00f3n de lo que postulaban. \u201cLos participantes que usaron Chat GPT dedicaron menos tiempo a la b\u00fasqueda que quienes usaron Google, lo que sugiere que aprender a partir de s\u00edntesis de modelos de lenguaje a gran escala requiri\u00f3 menos esfuerzo que aprender a partir de los resultados de b\u00fasqueda web est\u00e1ndar\u201d, reportan. En el trabajo no dan m\u00e1s n\u00fameros que los promedios, as\u00ed que eso es lo que podemos contarles: el promedio de tiempo que destinaron los que buscaron informaci\u00f3n sobre c\u00f3mo armar un huerto en Google fue de unos 12 minutos, mientras que el de quienes usaron Chat GPT fue de poco m\u00e1s de 9.<\/p>\n\n\n\n<p>Tambi\u00e9n reportan que mientras quienes buscaron en Google hicieron en promedio 2,15 consultas, los que usaron Chat GPT introdujeron en promedio 2,06&nbsp;prompts&nbsp;o comandos. \u201cEsto implica que el menor tiempo dedicado a la b\u00fasqueda con Chat GPT (en comparaci\u00f3n con Google) no se debi\u00f3 a una menor interacci\u00f3n con Chat GPT, sino a una menor interacci\u00f3n con los resultados\u201d, se\u00f1alan.<\/p>\n\n\n\n<p>\u00bfC\u00f3mo se sintieron unos y otros? En esto tambi\u00e9n hubo diferencias. Las respuestas dadas por quienes usaron Chat GPT para informarse muestran que dicen \u201chaber aprendido menos informaci\u00f3n nueva, sentir menor apropiaci\u00f3n del conocimiento adquirido y considerar que la informaci\u00f3n obtenida en su b\u00fasqueda fue menos completa\u201d.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 pas\u00f3 al redactar los consejos a sus hipot\u00e9ticas amistades que quer\u00edan armar un huerto en sus hogares? Tambi\u00e9n encontraron diferencias: \u201cQuienes aprendieron mediante Chat GPT dedicaron menos tiempo y esfuerzo a la elaboraci\u00f3n de sus consejos, sintieron una menor apropiaci\u00f3n del contenido y, en promedio, invirtieron menos tiempo en escribirlos\u201d. Nuevamente, no tenemos los datos, sino apenas unos promedios de esto \u00faltimo: quienes googlearon sobre los huertos hogare\u00f1os se tomaron en promedio poco m\u00e1s de 4,11 minutos para redactar sus recomendaciones, mientras que quienes apelaron a la IA destinaron 3,69 minutos. No parece haber mucha diferencia, es cierto, pero la percepci\u00f3n personal podr\u00eda ser bastante relevante (aunque el trabajo no da esos datos en forma cuantitativa).<\/p>\n\n\n\n<p>\u00bfY los consejos? \u00bfSe diferenciaban los contenidos de uno y otro grupo? Reportan que s\u00ed: los elaborados por quienes se informaron con Chat GPT \u201cpresentaban marcadores ling\u00fc\u00edsticos que suger\u00edan un aprendizaje menos profundo\u201d, ya que eran \u201cm\u00e1s concisos, con menos palabras\u201d (en promedio los del grupo Google ten\u00edan 95 palabras y los del Chat GPT 85) y menos referencias a hechos o entidades \u00fanicas\u201d (en promedio, 0,7 en el caso del grupo Google y 0,4 en el grupo de Chat GPT). Se\u00f1alan tambi\u00e9n que \u201cel contenido de los consejos redactados por quienes aprendieron con Chat GPT era menos original\u201d, mostrando sus consejos \u201cuna mayor similitud tem\u00e1tica y una menor singularidad sem\u00e1ntica\u201d.<\/p>\n\n\n\n<p>Por todo eso se\u00f1alan que los resultados de este experimento apoyan \u201cla hip\u00f3tesis de que el proceso de aprendizaje con menos esfuerzo e involucramiento\u201d a trav\u00e9s de los res\u00famenes generados por IA, en comparaci\u00f3n con la b\u00fasqueda de informaci\u00f3n en la web, \u201cpuede conducir a un conocimiento m\u00e1s superficial sobre un tema, lo que posteriormente se reflej\u00f3 tanto en su experiencia al escribir sus consejos como en el contenido de dichos consejos\u201d.<\/p>\n\n\n\n<p>No contentos con eso, realizaron dos r\u00e9plicas de este experimento, una con 2.402 participantes y otra con 1.976, en las que cambiaron algunas cosas (por ejemplo, en lugar de decirles que ten\u00edan que dar unos consejos de bot\u00e1nica, les pidieron que aprendieran \u201csobre un tema que confirmaron que era de gran relevancia personal para ellos\u201d, en particular sobre \u201cc\u00f3mo llevar un estilo de vida m\u00e1s saludable\u201d, y en el otro \u201cqu\u00e9 hacer si uno es v\u00edctima de una estafa financiera\u201d).<\/p>\n\n\n\n<p><strong>M\u00e1s experimentos<\/strong><\/p>\n\n\n\n<p>El segundo experimento implic\u00f3 a 1.979 participantes y mantuvo \u201cconstante la informaci\u00f3n en los resultados de b\u00fasqueda\u201d. En esta ocasi\u00f3n quienes participaron debieron buscar informaci\u00f3n sobre c\u00f3mo iniciar un huerto, pero tanto la respuesta de Chat GPT como los resultados de buscar en Google no eran reales sino preparados por el equipo. En Chat GPT ten\u00edan una respuesta con siete consejos para armar un huerto y con una extensi\u00f3n de 291 palabras. A su vez, ese mismo resumen fue ingresado en Chat GPT para que generara seis versiones de art\u00edculos diferentes, al estilo de publicaciones como la revista&nbsp;Better Homes and Gardens&nbsp;o el peri\u00f3dico&nbsp;The New York Times. Los resultados fueron colocados como seis links distintos que arrojaba Google. De esta manera, la informaci\u00f3n tanto en Chat GPT como en los resultados de Google ser\u00eda la misma.<\/p>\n\n\n\n<p>Una vez m\u00e1s obtuvieron resultados similares. \u201cSi bien la informaci\u00f3n de los resultados de b\u00fasqueda se mantuvo constante en todas las condiciones, los participantes del grupo Chat GPT consideraron que aprendieron menos que los del grupo Google\u201d, se\u00f1alan, y \u201ctambi\u00e9n mostraron menos inter\u00e9s en elaborar sus consejos sobre c\u00f3mo cultivar un huerto tras obtener informaci\u00f3n al respecto a trav\u00e9s de Chat GPT\u201d. Sus consejos, adem\u00e1s \u201creflejaban un conocimiento menos profundo del tema\u201d.<\/p>\n\n\n\n<p>Para el tercer experimento decidieron mantener constante la plataforma. Participaron menos personas (350) y la diferencia fue que en lugar de Chat GPT un grupo vio el resumen con IA que ofrece Google (el \u201cGoogle Overviews\u201d), mientras que el otro vio los resultados de la b\u00fasqueda en el navegador. Una vez m\u00e1s, los resultados fueron en l\u00ednea con los experimentos anteriores. Y entonces llegamos al cuarto.<\/p>\n\n\n\n<p><strong>\u00bfC\u00f3mo caen los consejos generados a partir de IA o a partir de una b\u00fasqueda activa en Google?<\/strong><\/p>\n\n\n\n<p>En esta instancia participaron 1.501 personas a las que se les pidi\u00f3 que leyeran y puntuaran dos consejos escritos sobre c\u00f3mo llevar una vida saludable del experimento 3, en el que la mitad de los participantes vio el resumen de la IA de Google, Google Ovierviews, y la otra naveg\u00f3 las p\u00e1ginas propuestas por Google. Cada persona del experimento 4 ley\u00f3 y evalu\u00f3 dos consejos, uno elegido aleatoriamente entre quienes buscaron informaci\u00f3n al navegar en Google y otro entre los que miraron s\u00f3lo el Google Overviews (los participantes no sab\u00edan nada sobre c\u00f3mo se hab\u00edan informado quienes escribieron esos consejos).<\/p>\n\n\n\n<p>Luego se les pidi\u00f3 que calificaran los consejos con la escala 1 a 5 (que va desde \u201ctotalmente en desacuerdo\u201d a \u201ctotalmente de acuerdo\u201d) para las siguientes opciones: \u201ceste consejo me result\u00f3 muy \u00fatil\u201d; \u201ceste consejo es muy informativo sobre el tema\u201d; \u201cparece que mi amigo se esforz\u00f3 mucho en formular este consejo\u201d; \u201cconf\u00edo en este consejo\u201d: \u201ces muy probable que siga este consejo\u201d; y, finalmente, \u201ces muy probable que recomiende este consejo a otros\u201d. Luego de calificar cada consejo por separado, se les mostraron ambos \u201cy se les pidi\u00f3 que indicaran cu\u00e1l les parec\u00eda m\u00e1s \u00fatil\u201d: con un 1 si el primer consejo les fue m\u00e1s \u00fatil, con 2 si ambos les resultaron igualmente \u00fatiles, y con 3 si el segundo les fue m\u00e1s \u00fatil.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 pas\u00f3? Los investigadores reportan que \u201clos resultados confirmaron que los receptores \u2013que desconoc\u00edan la plataforma de origen\u2013 consideraron que los consejos escritos por participantes que aprendieron de la IA Google Overviews (en comparaci\u00f3n con los enlaces web) eran menos \u00fatiles y menos informativos, y cre\u00edan que se hab\u00eda dedicado menos esfuerzo a redactarlos\u201d. Tambi\u00e9n los consideraron \u201cmenos fiables\u201d, fueron \u201cmenos propensos a recomendarlos a otros\u201d y tuvieron \u201cmenor disposici\u00f3n a adoptarlos ellos mismos\u201d.<\/p>\n\n\n\n<p><strong>Conclusiones sacadas con esfuerzo<\/strong><\/p>\n\n\n\n<p>Shiri Melumad y Jin Ho Yun concluyen que todos sus resultados, tomados en conjunto, sugieren que \u201cuno de los principales beneficios de las s\u00edntesis de modelos de lenguaje a gran escala \u2013el evitar que los usuarios tengan que explorar los resultados y sintetizar la informaci\u00f3n por s\u00ed mismos\u2013 puede conllevar una menor profundizaci\u00f3n en el conocimiento de un tema en ciertos contextos\u201d.<\/p>\n\n\n\n<p>\u00bfQuieren una forma genial de resumir una investigaci\u00f3n enorme? Los autores la tienen: aprender con estas IA generativas en lugar de buscando en Google \u201cpodr\u00eda considerarse, en ocasiones, an\u00e1logo a que se muestre la soluci\u00f3n a un problema matem\u00e1tico en lugar de intentar resolverlo uno mismo\u201d, dicen en el trabajo.<\/p>\n\n\n\n<p>Por ello reportan que consideran que sus hallazgos \u201ctransmiten un mensaje de precauci\u00f3n ante la creciente dependencia de los modelos de lenguaje a gran escala para la adquisici\u00f3n de conocimiento\u201d, ya que \u201cpueden transformar el aprendizaje de una actividad activa a una pasiva, lo cual, como se ha demostrado, produce resultados de aprendizaje inferiores en otros contextos\u201d.<\/p>\n\n\n\n<p>\u201cCreemos que si bien los modelos de lenguaje a gran escala pueden ofrecer beneficios sustanciales como ayuda para la formaci\u00f3n y la educaci\u00f3n en muchos contextos, los usuarios deben ser conscientes de los riesgos \u2013que a menudo pasan desapercibidos\u2013 de una dependencia excesiva\u201d, remarcan. Y agregan: \u201cQuiz\u00e1s sea mejor no dejar que Chat GPT, Google u otro gran modelo de lenguaje nos haga las b\u00fasquedas en Google\u201d.<\/p>\n\n\n\n<p><strong>No abandonarnos al sedentarismo cognitivo<\/strong><\/p>\n\n\n\n<p>\u201cMe encant\u00f3 el dise\u00f1o. Son cuatro experimentos y tienen tres r\u00e9plicas m\u00e1s. Hay una secuencia muy ordenada entre primero usar los productos como est\u00e1n, despu\u00e9s simulados, despu\u00e9s explorar el efecto dentro de Google, Google versus Google resumen de IA, y todo les da consistente. B\u00e1sicamente son los mismos resultados, alg\u00fan detallecito que cambia, pero va en l\u00ednea con las hip\u00f3tesis que se plantearon\u201d, comenta \u00c1lvaro Cabana desde las instalaciones del Centro de Investigaci\u00f3n B\u00e1sica en Psicolog\u00eda (CibPsi).<\/p>\n\n\n\n<p>Pero claro, como \u00c1lvaro ley\u00f3 activamente el trabajo, tambi\u00e9n puede formularle alguna que otra objeci\u00f3n: \u201ces un trabajo s\u00f3lido, m\u00e1s all\u00e1 de que hay algo&nbsp;too good to be true, de \u2018demasiado bueno para ser verdad\u2019 en cuanto a que se cumple todo lo que pensaban de antemano. La \u00fanica cr\u00edtica que tengo es que no est\u00e1 reportado el tama\u00f1o del efecto en ninguno de los casos, sino s\u00f3lo valores promedio\u201d. \u201cSeg\u00fan entiendo, los efectos son peque\u00f1os. Reportan que el aprendizaje no es tan profundo, pero es un poquito menos. Y eso es importante, porque en realidad ten\u00e9s una gran variabilidad entre las personas, y la distancia entre las medias de los grupos me parece que es medio chica con respecto a esa variabilidad\u201d, reflexiona.<\/p>\n\n\n\n<p>Pero m\u00e1s all\u00e1 de eso, le parece un art\u00edculo relevante. \u201cLos resultados confirman un poco c\u00f3mo pensamos que funciona la mente. Si te cuesta menos esfuerzo, el aprendizaje puede no ser tan profundo. Es una idea que en el aprendizaje tiene su tiempo\u201d, comenta.<\/p>\n\n\n\n<p>\u201cEsto est\u00e1 relacionado con el famoso problema del sedentarismo cognitivo\u201d, dice entonces. \u201cUno tiene que estar todo el tiempo pensando, pero a medida que el ambiente te va resolviendo tareas, aflojamos. Lo vemos con la navegaci\u00f3n. Ya no precis\u00e1s mapear mucho una ciudad. Pon\u00e9s el GPS y te olvid\u00e1s\u201d, dice gr\u00e1ficamente.<\/p>\n\n\n\n<p>\u201cLa macana es que en el adulto, que ya desarroll\u00f3 buena parte de las estructuras cognitivas, ponele que tenga alg\u00fan efecto no seguir entrenando algunas cosas. Pero el problema que m\u00e1s nos preocupa a todos es qu\u00e9 pasa cuando eso ocurre durante el desarrollo, es decir, si nunca desarroll\u00e1s esas habilidades\u201d, enmarca \u00c1lvaro.<\/p>\n\n\n\n<p>\u201cNadie quiere prohibir las calculadoras. Pero hay una raz\u00f3n para que las maestras, en primero y segundo, no las dejen usar, ya que hacer c\u00e1lculos mentales te entrena en un mont\u00f3n de cosas y te ayuda en el desarrollo. Con la escritura pasa lo mismo, necesitamos aprender a escribir\u201d, dice. \u201cEn la universidad como docente lo veo todo el tiempo. Por supuesto que Chat GPT va a escribir mucho mejor o m\u00e1s r\u00e1pido que vos muchas cosas. Pero si no hac\u00e9s el esfuerzo por escribir, nunca vas a aprender a escribir y eso va a jugar en tu contra\u201d.<\/p>\n\n\n\n<p>Le digo que el concepto del sedentarismo cognitivo me fascina casi tanto como el art\u00edculo en s\u00ed. Juntos, el art\u00edculo y la idea invocada por \u00c1lvaro nos llaman a tener ojo: podemos hacer muchas tareas auxiliados por la IA, pero ese no involucrarse en las tareas cognitivas hace que tengamos una relaci\u00f3n un poco m\u00e1s distante con lo que pasa. Y eso es m\u00e1s rico que el debate de si prohibir o no prohibir el uso de las IA, como si el tema fuera s\u00f3lo una cuesti\u00f3n de control. Esto no habla de la calidad de los procesos, de qu\u00e9 nos est\u00e1 pasando cuando recurrimos a eso.<\/p>\n\n\n\n<p>\u201cLo que m\u00e1s me preocupa del uso de estas herramientas es qu\u00e9 cosas van a dejar de hacerse o van a hacerse de otras formas que puedan llegar a limitar el desarrollo de los j\u00f3venes. En gente que se est\u00e1 formando, c\u00f3mo impacta la IA es un gran desaf\u00edo. \u00bfEn qu\u00e9 procesos del desarrollo puede impactar negativamente? No est\u00e1 claro\u201d, remarca. \u201cY es cierto, hay quienes dicen que la IA es inevitable. Pero no, no es inevitable en todos los \u00e1mbitos. Por otro lado, ten\u00e9s que fomentar un uso cr\u00edtico de la herramienta\u201d, apunta.<\/p>\n\n\n\n<p>\u201cTodo lo que se puede hacer de comunicaci\u00f3n, de informar c\u00f3mo funcionan estas cosas, de dejar claro que son productos que est\u00e1n a la venta, que est\u00e1n desarrollados por grandes compa\u00f1\u00edas, que tienen sus agendas y sus intereses y que en definitiva son computadoras haciendo cosas, ayuda a desmitificar la IA. Tanto eso como promover un uso cr\u00edtico es lo mejor que se puede hacer por la gurisada que est\u00e1 creciendo ahora, que ya tiene pantallas, ya tiene aplicaciones superadictivas, ya tiene redes sociales todo el tiempo, y ahora tiene IA todo el tiempo. Son todas cosas que a\u00fan no sabemos bien qu\u00e9 efectos causan, pero eso no significa que no las usemos en determinados contextos ni que no sean \u00fatiles o que no puedan beneficiarnos en la cotidiana. Como todo lo referente a la tecnolog\u00eda, depende de c\u00f3mo se usa y de c\u00f3mo aprend\u00e9s a usarla\u201d, se\u00f1ala \u00c1lvaro.<\/p>\n\n\n\n<p>\u201cTodas estas tecnolog\u00edas prometen facilitar algunas tareas, pero hay que ver qu\u00e9 cosas te facilitan. Capaz que algunas son necesarias, pero otras no. Capaz que hacerte un resumen simple y rampl\u00f3n de algo no es lo mejor. Y capaz que no es lo mejor que nos den todo en bandeja. En ese sentido, est\u00e1 bueno que se hagan art\u00edculos s\u00f3lidos a nivel metodol\u00f3gico que empiecen a ilustrar estas cosas\u201d, redondea \u00c1lvaro.<\/p>\n\n\n\n<p>Entonces, no es para poner el grito en el cielo ni para salir a prohibir los res\u00famenes generados por IA. Lo que s\u00ed es claro es que nuestro mundo es m\u00e1s rico si sabemos que s\u00f3lo con esos res\u00famenes nuestro mundo es un poquito m\u00e1s pobre. Si tenemos que darles un consejo a nuestras amistades, si queremos saber de algo que nos interesa, si queremos hacer una tarea no para cumplir sino porque entendemos que en el camino aprendemos cosas que nos ser\u00e1n \u00fatiles, si queremos redactar una nota para una comunidad respetable de suscriptoras y suscriptores, hacer un poco m\u00e1s de esfuerzo seguro se nota.<\/p>\n\n\n\n<p>Art\u00edculo:&nbsp;<a href=\"https:\/\/doi.org\/10.1093\/pnasnexus\/pgaf316\">Experimental evidence of the effects of large language models versus web search on depth of learning<\/a><br>Publicaci\u00f3n:&nbsp;PNAS Nexus&nbsp;(octubre de 2025)<br>Autores:&nbsp;Shiri Melumad y Jin Ho Yun.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>22 DE NOVIEMBRE LA DIARIA Por Leo Lagos Investigaci\u00f3n que compar\u00f3 aprender sobre un tema o bien pregunt\u00e1ndole a una inteligencia artificial generativa como Chat GPT, o bien haciendo b\u00fasquedas en Google, arroja que con la IA se desarrollan conocimientos menos profundos y menos originales debido a una actitud m\u00e1s pasiva ante la informaci\u00f3n. La &hellip; <a href=\"https:\/\/audec.edu.uy\/index.php\/2025\/11\/22\/chat-gpt-y-sedentarismo-cognitivo-aprender-de-consultas-a-la-ia-implica-adquirir-conocimientos-menos-profundos-que-googleando\/\" class=\"more-link\">Continue reading<span class=\"screen-reader-text\"> \u00abChat GPT y sedentarismo cognitivo: aprender de consultas a la IA implica adquirir conocimientos menos profundos que googleando\u00bb<\/span><\/a><\/p>\n","protected":false},"author":5,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_uag_custom_page_level_css":"","footnotes":""},"categories":[3],"tags":[],"class_list":["post-7867","post","type-post","status-publish","format-standard","hentry","category-7dias"],"uagb_featured_image_src":{"full":false,"thumbnail":false,"medium":false,"medium_large":false,"large":false,"1536x1536":false,"2048x2048":false,"post-thumbnail":false},"uagb_author_info":{"display_name":"Juan Pablo","author_link":"https:\/\/audec.edu.uy\/index.php\/author\/juan-pablo\/"},"uagb_comment_info":0,"uagb_excerpt":"22 DE NOVIEMBRE LA DIARIA Por Leo Lagos Investigaci\u00f3n que compar\u00f3 aprender sobre un tema o bien pregunt\u00e1ndole a una inteligencia artificial generativa como Chat GPT, o bien haciendo b\u00fasquedas en Google, arroja que con la IA se desarrollan conocimientos menos profundos y menos originales debido a una actitud m\u00e1s pasiva ante la informaci\u00f3n. La&hellip;","_links":{"self":[{"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/posts\/7867","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/comments?post=7867"}],"version-history":[{"count":1,"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/posts\/7867\/revisions"}],"predecessor-version":[{"id":7868,"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/posts\/7867\/revisions\/7868"}],"wp:attachment":[{"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/media?parent=7867"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/categories?post=7867"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/audec.edu.uy\/index.php\/wp-json\/wp\/v2\/tags?post=7867"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}