
La inteligencia artificial, al igual que otras nuevas tecnologías, han cambiado diversos aspectos de nuestras vidas. En el ámbito educativo, por ejemplo, ofrece herramientas para mejorar los procesos de enseñanza y aprendizaje, beneficiando a docentes y estudiantes.
Pero los alcances de la inteligencia artificial no se han limitado a este ámbito, ha trascendido a la investigación científica, aportando, indiscutiblemente, métodos y técnicas, así como las habilidades propias del investigador, abriendo nuevos cuestionamientos éticos, metodológicos, técnicos y multidisciplinares.
¡Quédate en Platicadito para conocer más sobre este tema, sin tanto rollo!
Invitado:
Dr. Erik Carbajal-Degante
Glosario:
Prompts: Son las instrucciones o entradas que un usuario proporciona a un modelo de IA generativa (como ChatGPT) para obtener una respuesta específica. Pueden ser preguntas, frases o fragmentos de texto diseñados para guiar el comportamiento del modelo.
Machine Learning: Es un subcampo de la inteligencia artificial que permite a las computadoras aprender patrones a partir de datos sin ser programadas explícitamente para cada tarea. Utiliza algoritmos que ajustan sus parámetros con base en la experiencia (datos) para mejorar su rendimiento en tareas específicas.
Prueba de Turing: Es un experimento conceptual propuesto por Alan Turing en 1950 para evaluar la capacidad de una máquina para exhibir un comportamiento inteligente indistinguible del de un ser humano. Se basa en una conversación escrita entre un humano y una máquina, donde un evaluador debe determinar cuál de los dos es el humano.
Prueba de Turing inversa: Es el proceso en el que un sistema automatizado evalúa si un usuario es humano o una máquina. Un ejemplo común son los CAPTCHAs, que presentan desafíos que los humanos pueden resolver fácilmente pero que resultan difíciles para los bots.
Alucinaciones: En el contexto de la IA, se refiere a respuestas incorrectas, inventadas o sin fundamento que un modelo generativo proporciona, aunque parezcan coherentes. Estas alucinaciones pueden ocurrir cuando el modelo extrapola información de manera errónea o genera contenido sin respaldo en los datos de entrenamiento.