En este episodio conversamos con Santiago Carlen, abogado especializado en ciberdelitos, sobre los desafíos y transformaciones que la inteligencia artificial está generando en el campo de la justicia y el derecho. A lo largo del diálogo exploramos:
• Cómo se están utilizando herramientas de IA en la justicia
• Los riesgos y dilemas de aplicar sistemas de IA en el ámbito judicial.
• Los debates entorno a la IA en propiedad intelectual y patentes
• Los desafíos de regular una tecnología económica y geopolíticamente clave en un contexto de oligopolios y potencias en competencia
Santiago Carlen es abogado (UCES) especialista en investigación de ciberdelitos y evidencia digital (Univ. Austral). Es litigante en el fuero penal federal y provincial de Chubut, autor de artículos de doctrina, investigador del Instituto de Investigación en Ciencias Jurídicas (UCES) en diversos proyectos, y docente y creador del curso "Inteligencia Artificial Generativa para abogados".
Índice de temas
(00:00:00) Bienvenida
(00:00:20) Presentación del episodio
(00:03:29) Bienvenida con el invitado
(00:04:00) SECCIÓN 1: IA en el sistema judicial
(00:07:40) De la máquina de escribir a la IA: transformaciones tecnológicas en tribunales
(00:09:34) Uso de IA generativa para redactar escritos, contratos y análisis documental
(00:10:38) Problemas de alucinaciones y citas falsas
(00:12:26) Limitaciones por falta de entrenamiento con jurisprudencia argentina
(00:16:56) IA para automatizar multas y contravenciones y sus límites
(00:21:04) Riesgos de decisiones automatizadas frente a la opacidad de los modelos
(00:23:30) Sesgos en IA y sesgos en jueces humanos: paralelismos y dilemas
(00:26:52) Complejidad de entrenar una IA para realizar inferencias jurídicas y evaluar pruebas
(00:30:40) IA en tareas administrativas de la justicia: agilizar trámites y gestiones
(00:31:44) Impacto laboral y paralelismos con otras revoluciones tecnológicas
(00:33:00) SECCIÓN 2: Nuevos dilemas jurídicos frente a la IA
(00:36:28) Cómo el derecho tarda en adaptarse a cambios disruptivos: propiedad intelectual, derechos laborales, responsabilidad civil
(00:38:47) Desactualización normativa en Argentina: datos personales y propiedad intelectual
(00:39:23) Debate global por el uso de obras con copyright para entrenar modelos
(00:41:17) Discusión sobre estilos artísticos, plagio y deepfakes
(00:42:42) Tres posturas sobre la autoría de obras generadas por IA
(00:45:17) Propuestas de “personalidad jurídica” para IA y debates en la UE
(00:46:55) Derechos de autor: sentido, plazos y posible necesidad de adaptación
(00:45:00) SECCIÓN 3: Regulación y responsabilidad
(00:48:13) La cuestión de la responsabilidad y la personería en la IA generativa y agéntica
(00:49:16) Sistemas de responsabilidad civil: subjetiva y objetiva
(00:50:03) Paralelos históricos: electricidad y la expansión de la responsabilidad objetiva
(00:51:12) Dilemas actuales: quién responde por daños causados por IAs “autónomas”
(00:56:45) El enfoque regulatorio de la Unión Europeo en función del nivel de riesgo
(00:58:28) Diferencias en los enfoques regulatorios de Estados Unidos, Europa y China
(01:05:02) Iniciativas de regulación en América Latina y Argentina
(01:06:57) Vuelta a Europa y el desafío de alcanzar marcos regulatorios globales en un contexto de competencia tecnológica
(01:09:21) Desafíos de gobernanza global: ¿La IA regulada como la energía atómica?
(01:13:43) Saludo final y despedida
----------------------------------
Seguí a LAIA en:
Web: https://laia.ar/
Instagram: https://www.instagram.com/laialab_/
X: https://twitter.com/LaiaLab_
Linkedin: https://www.linkedin.com/company/laia-ar/
Podcast: https://open.spotify.com/show/3TUSWSSSUWYrB7Iv0YQDiy
Youtube: https://www.youtube.com/@Laia-labinteligenciaartificial/
----------------------------------
Créditos del episodio:
Conducción: Cristian Cao
Producción: Cristian Cao, Lucas Pratessi y Florencia Guaita
Audio: Sergio Paoletti
Imagen y video: Alejandro Biscione
En este episodio con Agustín Valle exploramos el tema de cómo las tecnologías moldean nuestra cultura, subjetividad y vínculos. A lo largo de la historia, los humanos hemos creado herramientas de todo tipo, como la escritura, la imprenta, la televisión, las redes sociales o la IA, que han transformado nuestra forma de comunicarnos, de pensar y de vincularnos. Aprovechando que Agustín estudió en detalle el tema de las pantallas y las redes sociales en sus interacciones con los vínculos, la cultura y la subjetividad, lo convocamos para empezar a indagar sobre el tipo de humanidad que podemos llegar a armar, ahora, en relación con la inteligencia artificial. Su análisis sobre las pantallas y las redes, además, nos sirve como una advertencia de las muchas consecuencias no previstas que pueden surgir cuando el mundo entero implementa en un corto plazo una serie de tecnologías complejas. En este sentido, es notable que mientras que las redes y los dispositivos conectivos venían con la promesa de conectarnos y mejorar nuestra comunicación, su adopción en masa generó también vínculos superficiales, burbujas informativas, polarización política, y una marcada desconexión con el aquí y ahora.
Agustín Valle es ensayista y docente. Coordina talleres de pensamiento y escritura, y el Observatorio de Subjetividad Mediática. Publicó libros como “Jamás tan cerca, la humanidad que armamos con las pantallas”; “Cachorro, breve tratado de filosofía paterna”; y varios en coautoría como “A quién le importa, biografía política de Patricio Rey”.
---------------
(00:00:20) Presentación del episodio.
(00:02:05) Presentación de Agustín y del libro "Jamás tan cerca".
(00:03:07) La humanidad que "armamos" con la tecnología: una crítica al concepto de "impacto".
(00:04:38) El ser humano como un animal técnico a lo largo de la historia.
(00:05:42) La idea de Marshall McLuhan: "Damos forma a nuestras herramientas y luego ellas nos dan forma a nosotros".
(00:08:20) Redes sociales: la expectativa de vincularnos más vs. la realidad del aislamiento y la desconexión.
(00:09:30) La “mediósfera” de los dispositivos ocupando el lugar de la religión.
(00:12:55) Estar “comunicados” -> estar “conectados” -> estar “aislados”.
(00:14:42) La triple disociación: vincular, mente-cuerpo e histórico-política.
(00:16:48) ¿Que sigue y qué cambia con la Inteligencia Artificial?
(00:17:16) Una continuidad: la "datificación de la realidad" como paradigma.
(00:18:37) La nueva dinámica: conectarnos con entes artificiales en lugar de humanos.
(00:19:50) Cómo afecta la tecnología a distintas generaciones.
(00:20:47) La personalización extrema que puede traer la IA, ¿dificulta una cultura compartida?
(00:22:08) ¿Viene un "contragolpe histórico del yo" como resultado de la IA?
(00:23:27) ¿Consecuencias positivas de la IA?
(00:23:46) La relativa independencia de las herramientas de sus contextos de creación.
(00:26:55) ¿Una difícil transición hacia un futuro mejor? Quizás, pero cargada de consecuencias no previstas
(00:29:09) Despedida y dónde seguirlo a Agustín Valle.
---------------------
Seguinos en:
Web: https://laia.ar/
Instagram: https://www.instagram.com/laialab_/
X: https://x.com/LaiaLab_
Linkedin: https://www.linkedin.com/company/laia-ar/
Podcast: https://open.spotify.com/show/3TUSWSSSUWYrB7Iv0YQDiy
Youtube: https://www.youtube.com/@Laia-labinteligenciaartificial
En este episodio, Belén Silva nos ayuda a desentrañar el impacto ambiental y el consumo energético de los modelos de inteligencia artificial (IA) que usamos a diario, como los modelos de generación de texto, imágenes y videos. Abordamos con ella temas como la huella de carbono, la huella digital, el impacto en el ambiente de la inteligencia artificial, la llamada "Paradoja de Jevons", y compartimos con Belén algunas reflexiones filosóficas sobre cómo compatibilizar tecnología y desarrollo con bienestar y realización personal.
Esperamos que disfrutes del episodio. ¡No olvides suscribirte al canal de YouTube o a tu aplicación de podcast favorita para no perderte ningún contenido!
Belén A. Silva es ingeniera química (UBA). Hace más de 5 años que trabaja de forma independiente asesorando a empresas en la medición, reducción, compensación y comunicación de la huella de carbono de organizaciones, productos y eventos. Es fundadora del proyecto Idonella y co-fundadora y directora de la empresa krbon.me, creada para acompañar a empresas en su camino de descarbonización y democratizar el acceso a información relacionada con la huella de carbono a través de contenidos de impacto en redes sociales y medios digitales.
--------------------
(00:00:00) Introducción al episodio y a la invitada
(00:04:06) Presentación personal de Belén Silva y su empresa Krbon.me
(00:06:40) ¿Qué es la huella de carbono?
(00:08:10) ¿Qué es la huella digital?
(00:11:42) El impacto de la inteligencia artificial
(00:17:09) La Paradoja de Jevons aplicada a la IA
(00:18:36) IA, consumo y saber elegir cuándo usar la IA
(00:27:04) Motivación personal de Belén para dedicarse al ambientalismo
(00:29:32) Los límites del crecimiento y la finitud de los recursos
(00:31:40) Despedida del episodio
--------------------
Estudio mencionado en el episodio: https://www.nature.com/articles/s41598-024-54271-x
--------------------
Seguinos en:
Web: https://laia.ar/
Instagram: https://www.instagram.com/laialab_/
X: https://twitter.com/LaiaLab_
Linkedin: https://www.linkedin.com/company/laia-ar/
Podcast: https://open.spotify.com/show/3TUSWSSSUWYrB7Iv0YQDiy
Youtube: https://www.youtube.com/@Laia-admin
Andrés Cotton es lingüista graduado con honores de la Universidad de Buenos Aires. Trabaja con inteligencia artificial generativa y cuenta con 5 años de experiencia en investigación en Ciencias Cognitivas. Dirigió el área de Prompt Engineering de la empresa estadounidense CIENCE y trabajó para distintas empresas y ONGs de EE.UU., Israel y Europa.
Co-fundó y preside el comité de la CHAIN (Cheveners in AI Network). Investigó en el Centro de Inteligencia Artificial y Neurociencias de la Escuela de Negocios de la Universidad Torcuato Di Tella. Actualmente, gracias a la beca Chevening, está cursando un Master of Science in Speech and Language Processing de la University of Edinburgh, que está entre los 5 mejores del mundo en su temática.
------------------------------------ (00:00:00) INTRODUCCIÓN
(00:00:00) Novedades del podcast
(00:02:33) ¿Qué es LAIA?
(00:03:50) Introducción al entrevistado y contenido de la entrevista
(00:07:18) ENTREVISTA
(00:07:18) Presentación y bienvenida
(00:08:41) Recorrido laboral y académico de Andrés
(00:14:25) Importancia y desafíos de la interdisciplina en IA
(00:25:48) Cómo funcionan los modelos de lenguaje
(00:31:50) Qué rol toma el reconocimiento de patrones en su funcionamiento
(00:36:13) Qué hacen mejor y peor que nosotros
(00:38:55) Alucinaciones y la necesidad de chequear lo que nos dicen
(00:41:40) Riesgos en el uso constante/ingenuo de los modelos
(00:47:34) ¿Realmente "entienden"? ¿Cómo procesan el lenguaje?
(00:55:16) Áreas o tipos de conocimiento donde funcionan mejor y peor
(00:57:13) Sesgos y otras consideraciones al momento de usarlos
(01:04:48) ¿Son un "espejo" de nosotros?
(01:05:58) Cierre
------------------------------------
Créditos del episodio:
Conducción: Lucas Pratesi
Producción: Cristian Cao, Lucas Pratesi
Video y diseño de imagen: Alejandro Biscione
Audio: Sergio Paoletti
------------------------------------ Web: https://laia.ar/
Instagram: https://www.instagram.com/laialab_/
X: https://twitter.com/LaiaLab_
Linkedin: https://www.linkedin.com/company/laia-ar/
Podcast: https://open.spotify.com/show/3TUSWSSSUWYrB7Iv0YQDiy
Youtube: https://www.youtube.com/@Laia-admin
FLAVIA COSTA es Doctora en Ciencias Sociales por la Universidad de Buenos Aires (UBA) e investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Es Profesora Asociada de la Universidad de Buenos Aires y Profesora Titular en las Universidades Nacionales de Tres de Febrero (UNTREF) y San Martín (UNSAM). Asimismo, Co-coordina el Diploma Superior en Inteligencia Artificial y Ciencias sociales: desafíos teóricos y epistemológicos" del Consejo Latinoamericano de Ciencias Sociales (CLACSO). Flavia es autora de numerosas publicaciones sobre arte, tecnología y sociedad, así como sobre las derivas contemporáneas de la bio(tecno)política. Entre sus publicaciones se destacan "La salud inalcanzable. Biopolítica molecular y medicalización de la vida cotidiana" (Eudeba, 2017, coeditora con Pablo M. Rodríguez) y su último libro "Tecnoceno Algoritmos, biohackers y nuevas formas de vida" (Taurus, 2021), que discutimos con cierta profundidad en el episodio. También, actualmente dirige Tecnoceno LAB, un grupo multi-disciplinario de investigación e intervención sobre la incidencia y la regulación de la IA a nivel global, regional y nacional.
(00:00:00) INTRODUCCIÓN
(00:03:28) Incidencia de la tecnología: contexto
(00:06:25) Tecnoceno: la humanidad como agente geológico
(00:12:32) IA como parte del proceso de cambio de tecnologías info-comunicacionales
(00:15:22) Hacia una Periodización de tres etapas (70s, 90s y actualidad)
(00:19:28) ¿Cuánto del 'crecimiento exponencial' es hype comercial?
(00:22:05) La IA trae una nueva episteme "ingenieril" vs. "científica"?
(00:24:44) IA como tecnología de defensa y de interés geopolítico
(00:27:10) Episteme ingenieril gana terreno sobre una visión científica y humanística/filosófica
(00:32:20) Tecnologías previas aceleran la incidencia de la IA
(00:34:38) Vuelta a la periodización: la década del 70 (digitalización y biología molecular)
(00:40:18) Escalas para pensar la tecnología y poderes inhumanos
(00:46:44) Accidentes sistémicos o normales
(00:49:50) Accidentes / Incidentes de IA: su definición y monitoreo
(00:54:39) Regulación: Usos prohibidos y monitoreados de IA en la UE
(00:57:44) Riesgos por el uso de datos personales
(01:04:00) Ethos tecnológico/corporativo vs. científico/universitario
(01:09:52) Concentración vertical en grandes corporaciones y necesidad de regulación
(01:12:07) Dificultades en la regulación y qué puede hacerse al respecto
(01:15:19) Necesidad de armar equipos multidisciplinarios que incluyan a ciencias sociales
(01:24:49) La iniciativa de Tecnoceno LAB: sus áreas y objetivos
(01:31:14) Escenarios o imágenes utópicas / distópicas habilitados por la IA
Para contactarte con nosotros: www.laia.ar
Mario Guzmán es artista, escritor, programador, docente e investigador. Como artista suele fusionar el lenguaje con fenómenos audiovisuales, programación, arte electrónico, literatura algorítmica y robótica. Mario nació en México pero su personalidad itinerante lo llevó por varios lugares: estudió Letras y arte electrónico en Argentina, trabajó en Hanson Robotics (Hong Kong) y con el robot Sophia recorrió más de 50 países. Ahora reside en Berlín, donde trabaja como artista, docente e investigador.
https://www.mario-guzman.com/
https://vimeo.com/marioguzman
(00:00:00) INTRODUCCIÓN
(00:00:00) Introducción al episodio y al entrevistado
(00:04:04) Novedades de LAIA
(00:10:55) ENTREVISTA
(00:10:55) Primer acercamiento a la tecnología en la infancia
(00:13:31) Cómo eligió realizar la carrera de Letras en Argentina
(00:16:02) Cómo empezó a vincular literatura y arte con la tecnología
(00:20:48) Qué es la literatura electrónica: características y potencialidades
(00:25:18) Nuevas interfaces y nuevas formas de crear y experimentar obras de arte
(00:30:15) Su experiencia en Hanson Robotics y con el robot Sophia
(00:33:20) Poesía Algorítmica
(00:36:37) Obra El oráculo generativo
(00:41:49) ¿Se puede medir el desempeño de los modelos de lenguaje?
(00:42:34) Problemas de comunicación, sesgos y jailbreaking de modelos generativos
(00:47:23) Curso de Poesía algorítmica
(00:51:19) Obra La conciencia es el precocimiento de la mente universal
(00:54:30) La agencia de la tecnología en el proceso creativo y la "colaboración" entre humanos y máquinas
(00:55:08) Errores y 'no compliance' de modelos como semilla para preguntas y procesos creativos
(00:57:07) Combinación de técnicas y estilos y la relación con el ambiente físico
(00:59:24) Distintas escalas de modelos de IA aplicados al arte
(01:02:32) La creación colectiva y el concepto de 'autor' en el arte tecnológico
(01:10:49) Cómo ve al arte digital en América Latina
(01:12:04) Herramientas de IA generativa en la docencia y la escritura creativa
(01:20:09) Una metáfora de cómo ve su propia obra
(01:21:53) Recomendaciones que daría a una persona que esté iniciándose en el arte o la literatura
(01:27:52) Aspectos que generan optimismo y pesimismo en relación a la IA
Karen Palacio es Artista digital, VJ, Diplomada en ciencias de datos, estudia ciencias de la computación. Líder Técnica del área de Inteligencia Artificial de Kunan, una empresa de Software de Córdoba. Investiga el desarrollo, adaptación y uso de softwares libres para performances e instalaciones, buscando enunciar textos visuales complejos y multidimensionales.
(00:00:00) INTRODUCCIÓN
(00:00:00) Bienvenida y novedades de LAIA
(00:04:04) Introducción al episodio y la entrevistada
(00:13:53) ENTREVISTA
(00:13:53) Presentación y recorrido biográfico y académico
(00:25:22) VJ-ing como forma artística
(00:38:21) Cómo usa Karen herramientas de IA
(00:42:50) Algunas posibilidades (técnicas) abiertas por modelos de IA
(00:45:02) Modelos como expresión de sesgos, jerarquías, etc.
(00:49:22) Cómo posicionarse frente a eso artísticamente
(00:53:21) Sin intervención, los modelos reflejan y amplifican sesgos existentes
(00:56:51) Nivel de explicabilidad / oscuridad de modelos
(01:03:26) Creatividad de y con la IA
(01:10:07) Herramientas de audio
(01:18:12) Una tirada de oreja
(01:19:09) ¿Puede la IA cambiar el rol del artista?
Este primer episodio puede pensarse como la típica "introducción" de un libro, donde tratamos de forma muy resumida muchos de los temas que se van a profundizar en otros capítulos (o para nosotros: en futuros episodios del podcast). Para ello le realizamos una entrevista a ChatGPT dividida en cinco secciones, donde tendremos:
1. Una introducción a conceptos básicos de inteligencia artificial
2. Una introducción a los modelos de lenguaje y a ChatGPT en particular
3. La complejidad de los sistemas basados en redes neuronales y algunos paralelismos con el cerebro humano
4. Algunas limitaciones y problemas que acarrean estos modelos
5. El impacto (económico, político, psicológico, etc.) que puede tener la aparición en simultáneo de tantas herramientas de IA tan poderosas
Entre cada una de estas secciones, vamos a dar algunas opiniones sobre los temas tratados y sobre las respuestas que nos dio ChatGPT a las preguntas que hicimos.
(00:00:00) INTRO AL PODCAST
(00:05:24) INTRO A LOS TEMAS DE LA ENTREVISTA
(00:16:19) INTRO A LAIA
(00:22:07) INTRO A CHATGPT
(00:36:04) ENTREVISTA PT. 1: CONCEPTOS FUNDAMENTALES: IA, APRENDIZAJE AUTOMÁTICO, REDES NEURONALES, ETC.
(00:36:04) IA, aprendizaje profundo y redes neuronales
(00:41:32) Ejemplo de cómo funciona una red neuronal
(00:45:05) Tipos de aprendizaje automático (supervisado, no supervisado, por refuerzo)
(00:50:40) IAs generativas vs. convencionales
(00:53:08) REFLEXIONES Bloque 1
(01:05:23) ENTREVISTA PT. 2: CÓMO FUNCIONA CHATGPT Y OTROS GRANDES MODELOS DE LENGUAJE NATURAL
(01:05:23) Cómo funciona un modelo como ChatGPT
(01:13:48) El proceso de entrenamiento
(01:17:12) REFLEXIONES Bloque 2
(01:30:04) ENTREVISTA PT. 3: COMPLEJIDAD EN REDES NEURONALES Y PARALELISMOS CON EL CEREBRO HUMANO
(01:30:04) Comparación entre cómo humanos e IAs son influenciados
(01:33:56) Complejidad de sistemas de IA hasta para sus programadores
(01:36:18) Dificultad para diferenciar habilidades "verdaderas" de "aparentes" (inteligencia, creatividad, etc.)
(01:43:54) REFLEXIONES Bloque 3
(01:56:34) ENTREVISTA PT. 4: LIMITACIONES DE ESTOS MODELOS: CREATIVIDAD, SESGOS, PELIGROS Y ALINEAMIENTO
(01:56:34) Creatividad como limitación de modelos basados en la imitación
(02:00:22) Formas de aumentar la creatividad
(02:02:45) Alucinaciones
(02:07:06) ¿Aprende ChatGPT de sus interacciones con humanos?
(02:10:39) Sesgos, contenido inapropiado y cómo evitarlos
(02:13:12) Información falsa y abusos
(02:16:01) REFLEXIONES Bloque 4
(02:44:20) ENTREVISTA PT. 5: IMPACTO A NIVEL ECONÓMICO, CULTURAL Y PSICOLÓGICO DE LAS IAs
(02:44:20) Impacto a nivel laboral y económico, regulaciones y renta básica universal
(02:54:11) Impacto a nivel cultural, político y psicológico
(02:56:40) ¿Viviremos una transición tortuosa hacia una época dorada?
(03:01:09) REFLEXIONES Bloque 5
(03:15:53) CIERRE
Episodio inicial donde contamos qué es Laia, quiénes somos y de qué se trata el Laboratorio Abierto de Inteligencia Artificial.