OpenAI vs. Elon Musk:
OpenAI contraataca a Elon Musk con una contrademanda explosiva. Lo acusan de intentar sabotear la organización desde dentro, presionar para fusionarla con Tesla y, al no lograrlo, lanzar una campaña pública de desprestigio. Dicen que al principio Elon estaba a favor del enfoque comercial… hasta que dejó de estarlo. Una historia digna de serie.
Meta bajo fuego:
La FTC quiere forzar a Meta a vender Instagram y WhatsApp. Argumentan que las adquisiciones crearon un monopolio. Documentos internos muestran que Zuckerberg veía a Instagram como una amenaza “existencial”. Si la FTC gana, podría abrir la puerta para romper otros imperios tech.
Microsoft afila el lápiz:
La empresa de Redmond revisa su plantilla y apunta a despedir a quienes no programen. El nuevo mantra es: más programadores, menos todo lo demás. Si no picás código, afuera. Un cambio de paradigma que busca maximizar eficiencia y foco en el desarrollo de producto.
ChatGPT con memoria propia:
OpenAI activó por defecto la memoria de largo plazo en GPT-4 Turbo. Ahora recuerda tus gustos, estilo, temas preferidos y más. Se puede gestionar desde la configuración y prometen no usar tus datos para entrenar modelos sin tu consentimiento. Un paso más hacia un asistente verdaderamente personal.
IA musical en YouTube:
Google DeepMind y YouTube lanzan “Dream Track”, una herramienta para crear música con voces clonadas de artistas como John Legend y Demi Lovato. El modelo Lyria lo hace posible. Está en beta y marca un nuevo capítulo en la creación musical con IA.
Claude Pro Max: lujo para pocos:
Anthropic lanza una suscripción de $200 al mes por acceso prioritario a Claude 3 Opus. Es la IA más cara del mercado para usuarios individuales. A cambio: respuestas más largas, precisas y rápidas. Dirigido a profesionales que necesitan rendimiento premium… y tienen billetera premium.
X investigada por usar datos europeos:
Irlanda abrió una investigación contra X (antes Twitter) por entrenar su IA Grok con datos de usuarios europeos sin consentimiento. Aunque la empresa dice que solo usa datos públicos, podría enfrentar sanciones graves si violó el GDPR.
Meta, otra vez cuestionada:
Ahora por inflar benchmarks de LLaMA 4 con prompts optimizados que no reflejan escenarios reales. La compañía se defiende diciendo que eran pruebas internas, pero la comunidad IA no perdona la falta de transparencia.
Google se suma al club Anthropic:
Anunció que adoptará el estándar abierto de Anthropic para conectar modelos de IA con herramientas externas. Esto favorece la interoperabilidad y reduce la fragmentación entre plataformas. Una movida hacia una IA más colaborativa y menos encerrada en silos.
Microsoft Recall: todo queda guardado:
Con Recall, tu PC con Windows 11 captura automáticamente lo que hacés, permitiendo búsquedas por IA sobre tu historial visual. Todo se guarda localmente y cifrado, pero la idea de una memoria digital total ya genera preocupación sobre privacidad.
Ilya Sutskever apuesta por Google:
El ex cofundador de OpenAI presentó su nueva startup “Safe Superintelligence Inc.” y eligió Google Cloud como base para desarrollar una IA superinteligente y segura desde el inicio. Otro movimiento que reconfigura el mapa de alianzas en el mundo de la inteligencia artificial.
Más info en la.azotea.co
Sin la tecnología Transformers la IA Generativa no sería lo que es hoy. Es por ello que hoy explicamos con detalle cómo fue esa historia.
Este podcast resume las últimas noticias sobre el mundo de la tecnología, incluyendo: Google está probando una nueva herramienta de inteligencia artificial (IA) para optimizar las campañas publicitarias de sus anunciantes más grandes, Meta AI, el asistente de inteligencia artificial de Meta, ha superado los 500 millones de usuarios en su primer año, OpenAI está regresando al desarrollo de hardware y ha contratado a Caitlin Kalinowski, ex jefa de realidad aumentada de Meta, para dirigir sus iniciativas de robótica y dispositivos de consumo, la Unión Europea está preparando una multa millonaria contra Apple por supuestas prácticas anticompetitivas relacionadas con la App Store y WhatsApp se está asociando con Google para agregar una nueva función que permitirá a los usuarios buscar imágenes recibidas en la web para comprobar su veracidad.
Descubre la fascinante historia de la carrera por la Inteligencia Artificial General (AGI) entre las grandes compañías tecnológicas y destacados investigadores, desde sus primeros pasos en 2010 hasta el presente. Este recorrido cronológico abarca momentos clave como la fundación de DeepMind, la competencia por talento, la creación de OpenAI, el lanzamiento de ChatGPT y la feroz competencia por la supremacía en IA entre gigantes como Microsoft, Google, Facebook y otros. La historia está protagonizada por figuras influyentes como Elon Musk, Sam Altman, Larry Page, Sergey Brin, y Mark Zuckerberg, quienes han moldeado esta industria mediante rivalidades, alianzas y luchas de poder que definen este campo tecnológico en expansión.
Un diálogo entre IAs hablando sobre la historia más cercana de la IA, opinando sobre la IA...
Apple ha comprado Pixelmator, un popular software de edición de imágenes para Mac que ha competido con Photoshop durante 17 años. La adquisición incluye Pixelmator Pro, Pixelmator para iOS y Photomator, una aplicación similar a Lightroom. Pixelmator fue fundada en Lituania en 2007 y se ha caracterizado por aprovechar las tecnologías de Apple, como Core Image y Apple Pencil. Las versiones más recientes de Pixelmator utilizan inteligencia artificial y aprendizaje automático para mejorar las capacidades de edición. La compra aún requiere aprobación regulatoria. Por otro lado, WhatsApp ha lanzado una nueva función llamada "Listas", que permite a los usuarios categorizar sus chats y conversaciones de forma personalizada. Las listas sustituyen a los filtros anteriores y permiten a los usuarios organizar sus conversaciones por trabajo, universidad, etc. Esta función se está implementando para todos los usuarios de iPhone y Android.
Las noticias de esta semana se centran en los avances de la inteligencia artificial y sus implicaciones en diversos sectores. OpenAI confirmó que GPT-5 no se lanzará este año, priorizando el desarrollo de o1 y sus sucesores, y desmintiendo los rumores sobre el lanzamiento de un nuevo modelo llamado Orion. Sora, el generador de videos de OpenAI, también se retrasa debido a la complejidad del proceso de inferencia y a cuestiones de seguridad. Por otro lado, Meta anunció que está trabajando con el gobierno de EE. UU. para implementar sus modelos de IA Llama en diversos departamentos, y Mark Zuckerberg insinuó el lanzamiento de Llama 4 el próximo año, con capacidades mejoradas. Mientras tanto, Perplexity, un motor de búsqueda basado en IA, enfrenta demandas por plagio, aunque su CEO, Aravind Srinivas, defiende la práctica de citar fuentes y destaca su programa de reparto de ingresos con medios como Time y Fortune. Además, Reddit finalmente ha logrado la rentabilidad después de 19 años, gracias al aumento de los ingresos publicitarios y a la licencia de sus datos para el entrenamiento de IA. Finalmente, Apple lanzó nuevos modelos de MacBook Pro con chips M4, M4 Pro y M4 Max, con mejoras en RAM, almacenamiento y rendimiento, especialmente para tareas de inteligencia artificial.
En este episodio, repasamos las noticias tecnológicas más relevantes del día. Apple ha anunciado una innovadora pantalla inteligente inspirada en el icónico diseño del iMac G4, que se espera llegue al mercado el próximo año. Este dispositivo promete incluir aplicaciones como FaceTime, Notes y Calendar, además de ofrecer funciones para controlar el hogar inteligente. También exploramos la nueva función de Microsoft Excel, “Clean Data”, que utiliza inteligencia artificial para detectar y corregir automáticamente errores e inconsistencias en los datos. Finalmente, discutimos la millonaria multa de 310 millones de euros que LinkedIn ha recibido por violar el Reglamento General de Protección de Datos (RGPD) en la Unión Europea.
Exploramos las distintas aplicaciones de esta tecnología, desde el aprendizaje automático hasta el reconocimiento de voz y la traducción automática. Discutimos las implicaciones de la inteligencia artificial en la educación, el trabajo, la salud y el futuro de la humanidad, incluyendo las posibles ventajas y desventajas. Destacamos la importancia de enfocarnos en las habilidades humanas que la inteligencia artificial no puede replicar, como la creatividad, la empatía y el pensamiento crítico, y enfatizamos que la inteligencia artificial, a pesar de su potencial, todavía no ha alcanzado la capacidad de sentir emociones o comprender el mundo de manera tan compleja como nosotros, los humanos.
RAG, o Generación Aumentada por Recuperación, es una técnica que mejora los modelos de lenguaje grandes (LLM) al proporcionarles acceso a una base de conocimientos especializada y actualizable. En lugar de depender únicamente del conocimiento estático almacenado en los pesos del modelo, RAG recupera información precisa de documentos externos que pueden no haber sido parte del conjunto de datos de entrenamiento del LLM. Esto se logra mediante un módulo RAG que primero identifica la información relevante de una base de datos de vectores en función de la consulta del usuario y luego la integra en el prompt que se le da al LLM. El resultado es una respuesta más precisa y contextualizada que aprovecha tanto el conocimiento general del LLM como la información específica del dominio de la base de conocimientos. RAG se utiliza en funciones como la navegación web en chatbots y es especialmente útil cuando se trabaja con grandes cantidades de documentos o información especializada que no caben en la ventana de contexto de un LLM.
Apple está desarrollando nuevas funciones de salud para prevenir la diabetes, incluyendo una aplicación que monitorea la glucosa en sangre y la dieta para brindar recomendaciones personalizadas. En segundo lugar, Microsoft se enfrenta a una propuesta de sus accionistas para invertir en Bitcoin, aunque la junta directiva la considera innecesaria. Finalmente, Notion, la popular aplicación para tomar notas, está expandiendo sus servicios para convertirse en una superapp de productividad, integrando funciones como calendario, correo electrónico y sitios web.
Resumen de las noticias
Las noticias tecnológicas de hoy cubren una variedad de temas, incluyendo el desarrollo de IA, problemas de fabricación de chips y nuevas aplicaciones. OpenAI se está preparando para lanzar su próximo modelo de lenguaje grande, Orion, que se espera que sea mucho más potente que GPT-4. Mientras tanto, NVIDIA ha superado un obstáculo en la producción de su chip B200 para IA, atribuyendo los problemas a un error de diseño propio y no a su socio de fabricación, TSMC. Linus Torvalds, creador de Linux, se muestra escéptico sobre el bombo actual en torno a la IA, argumentando que gran parte es marketing y que aún no ve un uso claro para ella en su trabajo. Disney, por otro lado, está adoptando la IA, planeando una gran iniciativa para usarla en sus procesos creativos, particularmente en posproducción y efectos visuales. Finalmente, Perplexity AI ha lanzado una nueva aplicación para macOS que permite a los usuarios realizar búsquedas impulsadas por IA directamente desde su escritorio.
Este artículo de investigación presenta SynthID-Text, un nuevo método de marcado de agua para texto generado por modelos lingüísticos de gran tamaño (LLMs). El objetivo principal es permitir la identificación de textos sintéticos, mitigar el uso indebido accidental o deliberado y promover la transparencia y responsabilidad en el uso de LLMs. El documento aborda el problema de la creciente dificultad para distinguir el contenido generado por LLM del contenido escrito por humanos, lo cual tiene implicaciones en varios ámbitos como la educación y el desarrollo de software.
SynthID-Text utiliza un enfoque de marcado de agua generativo, que modifica sutilmente el proceso de muestreo de tokens durante la generación de texto, introduciendo una firma estadística detectable. Esta técnica no afecta el entrenamiento del LLM ni requiere acceso al modelo subyacente durante la detección, lo que la hace práctica y eficiente. El documento compara SynthID-Text con otros métodos de marcado de agua, mostrando mejoras en la detectabilidad y la preservación de la calidad del texto. También describe la integración de SynthID-Text con técnicas de muestreo especulativo, optimizadas para la eficiencia en sistemas de producción a gran escala.
En la reciente entrevista con Tim Cook publicada por el Wall Street Journal, el CEO de Apple ofrece una rara y reveladora visión de la filosofía de innovación de la compañía, resumida por el mantra de ser los mejores, no los primeros. Cook subraya la importancia de perfeccionar cada detalle en sus productos, lo cual explica por qué Apple puede parecer más lenta que la competencia en algunas áreas. Además, destaca el impacto potencial de la Apple Intelligence al compararla con innovaciones históricas como el iPhone, sugiriendo un cambio de paradigma en la interacción con la tecnología. Cook también admite que la Vision Pro está dirigida a early adopters, resaltando que su éxito se medirá a largo plazo por su capacidad para establecer un nuevo ecosistema tecnológico. A través de la entrevista, se ilumina la meticulosa rutina diaria de Cook y su enfoque en la evolución sostenida más que en disrupciones dramáticas. La entrevista culmina en una reflexión sobre cómo Apple sigue siendo fiel a su estrategia de priorizar la calidad y perfección sobre la velocidad, aun cuando enfrentan desafíos en la vanguardia tecnológica.
Los modelos de lenguaje extenso (LLMs) han demostrado capacidades notables en diversas áreas, incluyendo el procesamiento del lenguaje natural y la respuesta a preguntas. Esto ha llevado a un debate sobre si los LLMs han alcanzado capacidades de razonamiento similares a las humanas o si estas habilidades son una ilusión. El razonamiento, una parte central de la inteligencia humana, implica habilidades como la deducción, la inducción, la abducción y el pensamiento analógico.
Algunos investigadores argumentan que los LLMs exhiben un comportamiento similar al razonamiento, especialmente cuando se utilizan técnicas como la "Cadena de Pensamiento" (CoT). Esta técnica implica proporcionar al modelo un ejemplo de un problema y los pasos de razonamiento necesarios para resolverlo, lo que a menudo mejora el rendimiento del LLM. Sin embargo, persisten dudas sobre si los LLMs realmente razonan o simplemente imitan patrones observados en sus datos de entrenamiento.
Varios estudios sugieren que los LLMs pueden depender en gran medida de la memorización y la coincidencia de patrones en lugar del razonamiento abstracto. Por ejemplo, se ha demostrado que los LLMs son mejores en la resolución de problemas que involucran términos o conceptos que aparecen con frecuencia en sus datos de entrenamiento. Además, los experimentos con "tareas contrafactuales" (variantes de tareas de razonamiento que probablemente no se hayan visto en los datos de entrenamiento) revelan que los LLMs tienen dificultades para generalizar sus habilidades de razonamiento a situaciones nuevas.
Si bien la memorización y la coincidencia de patrones pueden ser parte del razonamiento humano, los humanos también son capaces de un razonamiento abstracto independiente del contenido. Se necesita más investigación para determinar si los LLMs poseen capacidades de razonamiento abstracto genuinas.
Si bien los modelos de lenguaje extenso (LLMs) han mostrado resultados impresionantes en tareas que aparentan requerir razonamiento, la evidencia sugiere que estas habilidades pueden estar más relacionadas con la memorización y la coincidencia de patrones que con un razonamiento abstracto genuino. Los LLMs tienden a tener un mejor rendimiento en problemas similares a los que han encontrado en sus datos de entrenamiento, y luchan para generalizar a situaciones nuevas o "contrafactuales". Esto plantea dudas sobre la confiabilidad y la generalización de las capacidades de razonamiento de los LLMs, lo que subraya la necesidad de una mayor investigación para desarrollar modelos de IA con habilidades de razonamiento más robustas.
Párrafo breve
Este podcast analiza las últimas noticias sobre el desarrollo de la IA y sus implicaciones. Apple se encuentra en una situación complicada, ya que está rezagada en el desarrollo de la IA en comparación con empresas como OpenAI, según se informa en las fuentes y . Microsoft, por otro lado, lidera el camino con BitNet.cpp, un framework que permite ejecutar modelos de lenguaje grandes (LLMs) de manera eficiente en dispositivos locales, como se destaca en la fuente . Además, Worldcoin (ahora "World") ha cambiado su estrategia de verificación de identidad para abordar las preocupaciones sobre la privacidad, pasando del escaneo de iris al uso del pasaporte, como se explica en la fuente . El podcast explorará estos temas y analizará el futuro de la IA, la privacidad y la identidad digital.
Este podcast ha sido creado con Notebooklm en el que varias voces generadas con IA hablan entre sí para hablar sobre la IA... es un experimento, a ver cómo resulta.
Descubre la nueva interfaz para que los niños puedan interactuar con la IA de OpenAI (GPT3).
Una interfaz y extensión para Google Chrome que permite interactuar con GPT3 + resultados de búsqueda de Google.
Les invito a descubrir mi nuevo libro:
A los pies de una Ceiba.
http://danielatik.com/alospiesdeunaceiba
Un programa dirigido, producido, interpretado, subvencionado y caracterizado por Daniel Atik
Sitio Web:
Síguenos en:
https://twitter.com/LaAzoteaCo