La Universidad de Granada recomendará a sus investigadores declarar el uso de inteligencia artificial en sus trabajos científicos

El documento, que ya tiene el visto bueno del consejo de gobierno, también propone una asignatura en el primer semestre del primer curso sobre IA generativa para el estudiantado

Los dos granadinos, amigos y compañeros que recogerán juntos sus premios nacionales fin de carrera

Teléfonos móviles con el logotipo de ChatGPT.
Teléfonos móviles con el logotipo de ChatGPT. / Etienne Laurent / Efe
A. A.

13 de enero 2025 - 06:00

La Universidad de Granada cuenta desde diciembre con un marco de recomendaciones para que la comunidad universitaria -estudiantes, docentes, investigadores y personal de gestión, administración y técnicos, unas 60.000 personas- haga un uso "responsable" de una de las herramientas tecnológicas que, hace tiempo, están en uso en laboratorios y aulas, la inteligencia artificial.

El texto, que no es una norma que "establezca lo que está permitido y lo que no lo está", se presenta como un documento que "debe servir de inspiración" a esa comunidad universitaria. Entre las recomendaciones, numerosas, está la petición a los investigadores de que mencionen el uso de la IA en sus trabajos científicos, algo que se recomienda también al estudiantado que afronte trabajos de fin de grado, de máster o tesis doctorales.

El documento, que comenzó a elaborarse la pasada primavera, fue aprobado en consejo de gobierno el pasado 16 de diciembre. En el mismo se reconoce que la llegada de la IA al ámbito docente ha generado tanto "entusiasmo" como "desconfianza". En la docencia hay oportunidades por explorar más allá de la creación de textos por IA generativa. Así, se indica que esta herramienta puede servir para adaptar materiales a estudiantado con necesidades educativas, el fomento del aprendizaje activo con chatbots o creación de tutoriales. Un mundo por desarrollar.

En la investigación

El uso de la inteligencia artificial en el trabajo científico tiene recorrido. Supone oportunidades "múltiples" y "cada día surgen nuevas posibilidades". El documento de la UGR sin embargo recuerda que es necesaria la supervisión y validación humanas y que "los métodos utilizados deben ser explicables, es decir, auditables, de forma que los resultados puedan tener un mínimo de credibilidad".

Entre las amenazas que se vislumbran están el hecho de que se recurra a fuentes de información limitadas, que no se identifiquen correctamente esas fuentes, la generación directamente de referencias falsas, el sesgo que puede suponer el predominio de contenidos en inglés o, directamente, la saturación que "puede hacer que se pierda la visión de conjunto y referencias importantes".

Se reconoce que se pueden fabricar y simular datos, plagiar o delegar la toma de decisiones, falsear las habilidades reales del investigador, aumentar la precariedad en este ámbito laborar o generar, directamente, una crisis en la imagen pública de la ciencia.

Por ello se recomiendan desde este documento que la UGR proponga "orientaciones uniformes", en el sentido de definir los usos permitidos y los no permitidos, incluir la obligatoriedad de declarar el uso de sistemas de IA en cada investigación y definir las "consecuencias" de los usos ilegítimos.

También se pide un incremento del control y asesoramiento sobre los resultados. Así, se debía asegurar una revisión previa por parte de un "comité de ética de las investigaciones que prevén un uso sustancial de la IA", además de reforzar los códigos éticos "dentro de la institución". Asimismo, se sugiere actualizar el código de buenas prácticas en investigación de la UGR, documento para el que se pide un capítulo específico para la IA.

A los investigadores se les recomienda declarar el uso de los sistemas de IA empleados en su trabajo o asumir que la autoría y responsabilidad "siempre debe recaer en un humano", por lo que los sistemas de inteligencia artificial no son "autores ni coautores". Además, se pide potenciar la revisión por pares: "Nunca dejar las tareas de revisión en manos exclusivamente de herramientas de IA".

En la docencia

Se percibe como oportunidad la posible ayuda que la IA puede asumir en la tutorización, con atención personalizada mediante chatbot, que ya realizan docentes de la UGR como Daniel Torres Salinas, director de la Unidad de Evaluación Científica del Vicerrectorado de Investigación y Transferencia. Estos asistentes virtuales pueden atender fuera de horario de clase y atender aquellas cuestiones que sean recurrentes entre el estudiantado. Elaborar exámenes o colaborar en la corrección de trabajos a evaluar también se citan como apoyos que puede ofrecer la IA.

El estudiantado, que posiblemente ya haya incorporado masivamente el uso de esta herramienta en su día a día en la Universidad, puede emplearse en multitud de tareas, desde edición o traducción de textos a practicar la comunicación oral.

¿Todo son ventajas? El texto apunta a que hay "amenazas y posibles repercusiones" del uso de la inteligencia artificial en la docencia. El primer problema viene de la "falta de honestidad y responsabilidad" que puede "afectar directamente a todo el proceso formativo". No se señala que se practique el plagio sino de falsa autoría o suplantación. Esto afecta tanto a docentes como a discentes con derivadas éticas en el caso de los primeros y la dificultad de aprender para los segundos.

Para afrontar estas dificultades (y otras como el sesgo, la falta de diversidad en la información o la falta de transparencia) se apunta la necesidad de que el estudiantado tenga las "competencias adecuadas para integrar la IA en sus proceso de aprendizaje". Ya que está ahí, lo suyo es utilizarlo bien.

La formación también sería extensiva al profesorado, ya que, según el documento, "la falta de formación" puede hacer que los docentes sientan "reticencias al empleo de la IA por su falta de conocimiento o por la incertidumbre que les provoca". No tener los conocimientos para detectar los fraudes se apunta como uno de los motivos de esa resistencia.

Las recomendaciones del texto de la UGR van en la línea de informar en las guías docentes de lo que se permite "y que no" con respecto a la IA, declarar si se ha usado, poner ejemplos de lo que supone el uso "interesado" de esta herramienta o "repensar la evaluación". En este punto se señalan como orientaciones incluir actividades grupales.

La necesidad de formar se sustancia en otra recomendación, una asignatura "obligatoria" sobre alfabetización digital con IA generativa a impartir directamente en el primer trimestre del primer curso de grado. Además, se pide que tanto profesorado como estudiantado "debe saber el coste económico" que supone el uso de la IA.

stats