IA & STALKERWARE – CUANDO LA TECNOLOGÍA SE VUELVE CÓMPLICE DEL ACOSO¿Sabías que uno de los gadgets más pequeños de Apple ha sido utilizado por acosadores para rastrear a sus víctimas? En este episodio de Digitalmente Olvidadas nos adentramos en el inquietante mundo de los dispositivos rastreadores y su vínculo con la inteligencia artificial.¿Qué relación hay entre el diseño tecnológico dominado por hombres y el uso indebido de estos dispositivos? ¿Y por qué nos debería preocupar especialmente a las mujeres? Junto a Virginia Carreras en la investigación y Mónika Blasco en la conducción, analizamos cómo herramientas aparentemente inocuas como el AirTag o el SmartTag pueden convertirse en armas de control y violencia.Con datos impactantes y consejos prácticos para detectar si estás siendo rastreada, este episodio busca abrir los ojos sobre una forma de acoso cada vez más común y silenciosa.Hablamos de cifras reales, de demandas colectivas, de brechas de seguridad y, sobre todo, de cómo el sesgo de género en el diseño tecnológico puede poner en riesgo nuestras vidas.No te lo pierdas. Conciencia para no ser olvidadas.
Deepfakes: el lado oscuro de la inteligencia artificial
¿Y si te dijéramos que puedes crear un vídeo falso con la cara de cualquier persona en menos de 25 minutos y sin gastar un euro? En este episodio, nos adentramos en el inquietante universo de los deepfakes, una tecnología que permite falsificar imágenes, audios y vídeos mediante inteligencia artificial con resultados cada vez más realistas.
De la mano de Virginia Carreras y Mónika Blasco, exploramos qué hay detrás de esta técnica basada en deep learning y redes generativas antagónicas (GANs), y cómo está transformando desde la educación y el cine hasta las campañas de desinformación, la extorsión, y la pornografía no consensuada.
🔍 Descubre cómo funcionan los deepfakes, cuáles son sus aplicaciones positivas, pero sobre todo, por qué el 98% del contenido deepfake en Internet es pornográfico y el 99% de ese contenido afecta a mujeres.
🧠 Hablamos de sesgos de género, plataformas sin control, explotación de datos biométricos y los riesgos de esas "inocentes" modas de convertir tu rostro en una caricatura.
Una conversación necesaria para entender los riesgos de una tecnología al alcance de cualquiera. Porque informar también es una forma de resistir.
Episodio 9 – La Losa de Hormigón: la carga invisible de ser mujer
En este episodio hablamos con Laura Sagnier sobre un concepto muy potente: la Losa de Hormigón, esa carga invisible que muchas mujeres siguen llevando en su día a día.
💬 Con datos de sus investigaciones, exploramos:
Qué es exactamente esta losa.
Cómo se reparten (o no) las tareas en la pareja.
Qué ha cambiado entre 2016 y 2023.
Y cómo perciben esta carga hombres y mujeres de forma muy distinta.
También hablamos de las consecuencias de esta losa en la vida de las mujeres y en la sociedad, con ilustraciones que lo hacen aún más claro.
🧠 En la segunda parte, Virginia Carreras nos presenta un nuevo experimento con inteligencia artificial que revela cómo los sesgos de género también se esconden en el lenguaje.
Una conversación necesaria para seguir visibilizando lo que muchas veces queda oculto.
¿Sabías que los algoritmos que determinan si obtienes un préstamo o cuánto crédito mereces pueden estar sesgados por género?
En este nuevo episodio de Digitalmente Olvidadas, Mónika Blasco y Virginia Carreras, junto con la socióloga Blanca Moreno, se adentran en el mundo de las finanzas para hablar de cómo la inteligencia artificial refuerza desigualdades ya existentes.
A partir del polémico caso de la Apple Card y otros estudios internacionales, analizamos cómo las mujeres siguen siendo discriminadas en productos financieros, desde tarjetas de crédito hasta préstamos y rondas de financiación para startups. ¿Por qué, si somos más cumplidoras en los pagos, seguimos teniendo menos acceso al crédito?
Además, hablamos de brechas salariales, sesgos algorítmicos, barreras en la banca digital y el impacto que todo esto tiene en la autonomía económica de las mujeres. ¿La buena noticia? Hay avances, pero aún queda mucho camino por recorrer.
💥 Reflexión, datos y propuestas para que ninguna mujer quede digitalmente olvidada.
🔗 Referencias del capítulo:
BBC Mundo – El escándalo de la Apple Card: https://www.bbc.com/mundo/noticias-50375172
The New York Times – Apple Card Investigation: https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html
IDB Invest – Uncovering the Hidden Cost of Gender Biases in Lending to Women: https://idbinvest.org/en/blog/gender/uncovering-hidden-cost-gender-biases-lending-women
IDB Publication – Bad Taste: Gender Discrimination in the Consumer Credit Market: https://publications.iadb.org/en/bad-taste-gender-discrimination-in-the-consumer-credit-market?_gl=1*y1e1iq*_ga*MTg0NjkyNjc0LjE3MzA4MzU5NzA.*_ga_T7MXBVEPG7*MTczMTM0OTg4MC4zLjAuMTczMTM0OTg4MS41OS4wLjA.
Women’s World Banking – Sexist AI: https://www.womensworldbanking.org/insights/sexist-ai-what-to-do-about-gender-based-algorithmic-bias-in-the-financial-sector/
Life & Health – Algorithmic Bias and Financial Inclusion: https://www.lifehealth.com/algorithmic-bias-financial-inclusion-gender/
Gestha – Informe Brecha Salarial y Techo de Cristal: https://www.gestha.es/archivos/actualidad/2023/07-03-2023Anexo.pdf
ONTSI – Brecha Digital de Género 2024: https://www.ontsi.es/sites/ontsi/files/202407/Brecha%20de%20g%C3%A9nero%202024.pdf
Closingap – Brecha en el emprendimiento innovador 2024: https://closingap.com/wp-content/uploads/2024/05/cg-emprendimiento-innovador-1.pdf
En este episodio de Digitalmente Olvidadas, exploramos cómo la inteligencia artificial (IA) perpetúa el edadismo, afectando a las personas mayores en múltiples ámbitos, desde la salud hasta el acceso a la tecnología.
Para ello, contamos con una invitada de lujo: Blanca Moreno, socióloga, directora de la Consultoría MiT y experta en género.🔍 ¿De qué hablamos en este episodio?
En este episodio de Digitalmente Olvidadas, exploramos cómo la inteligencia artificial está transformando la medicina y qué implicaciones tiene para la equidad de género en la salud. ¿Pueden los algoritmos mejorar el diagnóstico y tratamiento de enfermedades, o están perpetuando sesgos que afectan la atención médica?
Hablamos sobre casos concretos como el uso de IA en el análisis de radiografías, el impacto de los datos sesgados en el desarrollo de modelos médicos y la falta de perspectiva de género en investigaciones científicas. Además, discutimos cómo estos problemas pueden afectar a millones de personas, especialmente a mujeres y personas de género diverso, en el acceso a diagnósticos y tratamientos precisos.
📌 Referencias mencionadas en el episodio:
🔗 Publicación de Women at the Table sobre la brecha de datos en salud:
https://www.womenatthetable.net/wp-content/uploads/2024/01/Gender-Data-Health-Gap_compressed.pdf
🔗 Datos de la OMS sobre la artritis reumatoide (2019):
https://www.who.int/es/news-room/fact-sheets/detail/rheumatoid-arthritis
🔗 Estudio del University College of London sobre sesgos de género en IA médica:
https://www.medrxiv.org/content/10.1101/2024.10.15.24315519v1.full.pdf
🔗 Investigación del MIT sobre IA y radiografías de tórax:
https://www.rsna.org/news/2023/september/ai-chest-x-ray-reveals-bias
https://news.mit.edu/2024/study-reveals-why-ai-analyzed-medical-images-can-be-biased-0628
En esta segunda parte de nuestra conversación con Iolanda Montserrat, profundizamos en un tema clave: la inteligencia artificial no es neutral. Los sesgos de género que existen en la sociedad se trasladan a los datos con los que entrenamos la IA, lo que refuerza desigualdades y perpetúa estereotipos.
Junto a Iolanda, abordamos estrategias para desafiar estos patrones y promover una IA que represente mejor la diversidad del mundo real.
Referencias:
Estudio de McKinsey “Mujeres en el lugar de trabajo 2023” sobre el peldaño roto:
https://www.mckinsey.com/featured-insights/destacados/mujeres-en-el-lugar-de-trabajo-2023/es
En este episodio de Digitalmente Olvidadas, nos sumergimos en un análisis profundo sobre la brecha de género en el acceso y uso de la inteligencia artificial, respaldado por estadísticas de estudios recientes. Hablamos con la destacada experta Iolanda Montserrat, quien comparte su experiencia trabajando en el sector empresarial y cómo ha enfrentado los retos que esta brecha representa. Iolanda también nos cuenta sobre su labor como mentora de un grupo de mujeres que están iniciando su camino en la inteligencia artificial. Desde talleres prácticos hasta su impacto transformador, nos muestra cómo este acompañamiento está rompiendo barreras y abriendo puertas en un campo principalmente dominado por hombres. Referencias: Informe World Economic Forum: https://es.weforum.org/stories/2024/04/las-mujeres-se-estan-quedando-atras-en-la-ia-generativa-en-el-ambito-laboral-asi-se-puede-cambiar-esta-tendencia/ Estadística percepción oportunidades acceso mercado laboral hombres y mujeres según 20 minutos: https://www.20minutos.es/noticia/5107295/0/el-51-de-los-espanoles-cree-que-las-mujeres-tienen-menos-oportunidades-laborales-que-los-hombres/
Reconocimiento facial: cuando la tecnología no reconoce a todos
El reconocimiento facial está en todas partes, pero no siempre funciona como debería. En este episodio, desglosamos casos reales en los que los algoritmos han fallado, perpetuando racismo, sexismo y estereotipos.
💡 ¿Qué pasa cuando un sistema identifica mal a alguien por su color de piel o ignora a las mujeres por un diseño sesgado?
Únete a Digitalmente Olvidadas mientras analizamos el impacto de esta tecnología en nuestras vidas y exploramos cómo podemos avanzar hacia un futuro más inclusivo.
🎧 Dale play y forma parte de la conversación.
REFERENCIAS: Artículo IA y sesgos: https://nuso.org/articulo/inteligencia-artificial-y-sesgos-algoritmicos/
Libro: UnMasking AI (solo en inglés: https://www.amazon.es/Unmasking-AI-Mission-Protect-Machines/dp/0593241835 )
Documental: Sesgo Codificado (Coded Bias) en Netflix https://www.netflix.com/us-es/title/81328723
Asociación: Liga de la Justicia Algorítmica (https://www.ajl.org/about )
Estadísticas:https://secpre.org/noticias-detalle-buscador/279/Nota%20de%20Prensa:%20SECPRE%20presenta%20%E2%80%98La%20realidad%20de%20la%20Cirug%C3%ADa%20Est%C3%A9tica%20en%20Espa%C3%B1a%E2%80%99,%20el%20estudio%20con%20datos%20actualizados%20sobre%20las%20intervenciones%20m%C3%A1s%20demandadas%20por%20edades%20y%20sexos
En este episodio de Digitalmente Olvidadas, exploramos el impacto de los algoritmos en la selección de personal y cómo perpetúan desigualdades de género y otros sesgos.
Desde la forma en que los sistemas de reclutamiento filtran currículums hasta las consecuencias de entrenar la IA con datos históricos cargados de prejuicios, desentrañamos los retos y riesgos de dejar la contratación en manos de estas tecnologías.
Hablaremos de casos reales, ejemplos alarmantes y soluciones posibles para construir procesos de reclutamiento más justos e inclusivos.
La inteligencia artificial parece saberlo todo, pero ¿alguna vez te has preguntado de dónde saca su "sabiduría"? La respuesta está en las etiquetas de datos: esas pequeñas descripciones que usamos para enseñar a los algoritmos qué es qué.
En este primer episodio de Digitalmente Olvidadas, exploramos cómo estas etiquetas son mucho más que simples definiciones. Desde sus sesgos y prejuicios hasta las consecuencias que tienen en nuestra vida cotidiana, analizamos por qué las etiquetas incompletas o erróneas pueden perpetuar desigualdades.
¿Por qué importa? Porque la forma en que etiquetamos el mundo digital define cómo nos ven los algoritmos.
Acompáñanos en esta conversación donde desglosamos el impacto de los datos y discutimos cómo podemos construir un futuro tecnológico más justo y equitativo.
Web:
https://digitalmenteolvidadas.es
Referencias:
Imagen 1:
Imagen 2:
https://www.google.com/search?client=safari&rls=en&q=dall-e&ie=UTF-8&oe=UTF-8
Enlacen a la revista MIT donde se habla sobre los datos de "colonizacion":