jueves, junio 12, 2025
15.5 C
San Pedro

MIT se distancia de un polémico estudio sobre IA y productividad científica

Tenés que leer..

En el mundo académico, los estudios con potencial de transformar nuestra comprensión sobre cómo trabajamos con la tecnología generan mucho interés.


En el mundo académico, los estudios con potencial de transformar nuestra comprensión sobre cómo trabajamos con la tecnología generan mucho interés. Este fue el caso de «Artificial Intelligence, Scientific Discovery, and Product Innovation«, una investigación firmada por un estudiante de doctorado del programa de economía del MIT. El artículo afirmaba que el uso de una herramienta de inteligencia artificial en un laboratorio no identificado de ciencia de materiales había llevado a un aumento en los descubrimientos y solicitudes de patentes. Sin embargo, también señalaba una reducción en la satisfacción laboral de los investigadores.

El respaldo inicial y la caída en desgracia

Economistas de renombre como Daron Acemoglu y David Autor, ambos figuras destacadas del MIT, elogiaron inicialmente el trabajo. Autor incluso declaró en el Wall Street Journal que había quedado «impresionado». El estudio se volvió un tema frecuente de conversación en los círculos académicos, a pesar de no haber sido revisado por pares ni publicado formalmente en revistas científicas reconocidas.

Con el paso del tiempo, sin embargo, surgieron dudas sobre la integridad de la investigación. A principios de 2025, un científico informático con experiencia en ciencia de materiales se acercó a Acemoglu y Autor para expresar su preocupación por los datos utilizados en el estudio. Esta advertencia desencadenó una revisión interna dentro del MIT.

Las conclusiones de la revisión

El MIT, respetando las leyes de privacidad estudiantil, no ha revelado detalles específicos del análisis que realizó. Sin embargo, el resultado fue contundente: el artículo debía ser retirado del discurso público. Además, se confirmó que el autor, identificado previamente en medios y en versiones preliminares del artículo como Aidan Toner-Rodgersya no forma parte del instituto.

En una declaración oficial, tanto Acemoglu como Autor retiraron su apoyo al trabajo, señalando que no tienen confianza en la procedencia, fiabilidad ni veracidad de los datos utilizados.

¿Qué ocurre con el artículo ahora?

El estudio había sido enviado para publicación a la revista The Quarterly Journal of Economics y compartido en arXiv, una plataforma muy utilizada para difundir investigaciones preliminares. El MIT ha solicitado su retirada de ambas instancias. Sin embargo, como arXiv exige que las solicitudes de retiro provengan de los autores, y Toner-Rodgers no ha hecho tal solicitud, el artículo aún permanece accesible en esa plataforma.

Implicaciones más allá del MIT

Este caso es más que un incidente académico. Refleja la tensión creciente entre el entusiasmo por la inteligencia artificial y la necesidad de mantener estándares rigurosos de integridad científica. En un momento en que herramientas como ChatGPT o copilotos de código se integran cada vez más en entornos de investigación, surge la pregunta: ¿cómo garantizar que las métricas de productividad no sacrifiquen la calidad o ética del trabajo científico?

También se plantea una advertencia sobre la velocidad con la que algunas ideas se difunden y ganan tracción antes de ser evaluadas críticamente. El simple hecho de contar con el respaldo de voces reconocidas no puede sustituir el proceso de revisión por pares, esencial para validar cualquier avance.

La responsabilidad institucional

El manejo del MIT ha sido cuidadoso, aunque limitado por las normas legales. La decisión de anunciar públicamente el retiro de apoyo y recomendar la retirada del artículo muestra un compromiso con la transparencia, pero también pone de relieve los límites del control institucional cuando los autores no colaboran con los procesos correctivos.

Un llamado a la prudencia científica

Este episodio invita a la comunidad investigadora y a los medios especializados a ser cautelosos ante estudios que aún no han pasado por revisiones exhaustivas. También refuerza la necesidad de establecer mecanismos claros para la verificación de datos, sobre todo cuando se trata de investigaciones que afirman grandes beneficios de nuevas tecnologías.

Como con cualquier herramienta poderosa, la inteligencia artificial debe ser evaluada con criterio y responsabilidad. No basta con observar resultados llamativos; es fundamental entender cómo se obtuvieron, si los métodos fueron apropiados y si pueden replicarse.

Últimas noticias

Los Ángeles: así funcionan los grupos de WhatsApp que se organizan para avisar de las redradas migratorias.

El mensaje llega a través de las redes sociales y se replica en pocos minutos en cientos de grupos...

Más noticias como esta