OpenAI habilitó una función que permite realizar compras completas sin salir de ChatGPT. Los usuarios pueden buscar productos, comparar opciones y finalizar transacciones directamente en la conversación, integrando sus datos de pago de forma segura.
Puntos Clave:
• Comercios disponibles incluyen Shopify, DoorDash, Instacart y Etsy
• Funciona con voz o texto dentro del chat
• No requiere apps adicionales ni cambiar de pantalla
• OpenAI no cobra comisión por las transacciones
• Disponible gradualmente para usuarios de pago en USA
Por qué es importante:
Lo hemos hablado desde hace tiempo. La llegada de las compras a LLMs como ChatGPT, Gemini o Grok era inminente, solo faltaba resolver la infraestructura financiera segura para que un agente comprara por nosotros. Perplexity ya lo había habilitado y ahora llega a ChatGPT. Pronto se le unirán los demás. Si ChatGPT logra hacer que pedir algo sea más natural que navegar menús o filtros, podría ganar terreno rápido.
Anthropic lanzó Claude Sonnet 4.5, posicionándolo como el modelo líder en programación y desarrollo de agentes complejos. La actualización mantiene el mismo precio que su predecesor pero ofrece mejoras sustanciales en tareas de larga duración, en seguridad y analisis financieros, todo esto con capacidad para trabajar autónomamente hasta 30 horas continuas.
Puntos Clave:
• Resuelve 77.2% de tareas reales de programación
• Trabaja autónomamente hasta 30 horas continuas
• Mejora 44% velocidad en vulnerabilidades de seguridad
• Genera aplicaciones listas para producción, no prototipos
• "Reduce" comportamientos problemáticos como adulación y engaño
Por qué es importante:
El lanzamiento llega dos meses después de Opus 4.1, en un mercado saturado pero con oportunidad tras los resultados mixtos de GPT-5. Claude mantiene precio alto y ventana de contexto corta frente a OpenAI y Gemini. Pero su apuesta es trabajar solo durante horas sin perder el foco. Esa capacidad de sostener tareas por 30 horas marca un cambio. Los modelos ya no compiten por resolver un problema puntual, sino por mantener proyectos completos sin supervisión. Quedará atrás el copiloto y estamos pasando a la era del colega que trabaja toda la noche.
Harvard Business Review advierte que la IA está creando más trabajo innecesario del que elimina. Las herramientas generativas producen borradores extensos que requieren edición profunda, análisis superficiales que demandan validación constante y reuniones adicionales para corregir errores, convirtiendo la promesa de productividad en una trampa de tareas de bajo valor.
Puntos Clave
• Borradores largos requieren más tiempo de edición
• Aumentan reuniones para corregir resultados de IA
• Equipos validan constantemente outputs generados automáticamente
• Gerentes pasan horas refinando contenido inicial
• Creció la desconfianza hacia información producida por IA
Por qué es importante
Muchos “expertos” venden la IA como si hiciera el trabajo por ti. Pero no es así.. Sí mejora productividad y calidad, siempre que des instrucciones claras, contexto suficiente, ejemplos concretos y limitaciones explícitas. Sin eso, la IA rellena huecos, supone cosas, alucina datos, todo con tal de parecer útil. Y aún así, SIEMPRE hay que revisar resultados. El problema no es técnico, es formativo, no se trata de programar, sino de tener AI Fluency. Entender cómo piensan los modelos, cómo dar instrucciones y cómo iterar. La brecha entre lo que se promete y lo que se necesita genera trabajo inútil.
OpenAI publicó GDPVal, una métrica que compara modelos de IA directamente contra profesionales reales en 44 ocupaciones. Los resultados muestran que GPT-5 iguala o supera al trabajo de expertos humanos en 47.6% de las tareas evaluadas, mientras que Claude Opus 4.1 alcanza casi el 50%.
Puntos Clave
• Evaluaron 1,320 tareas de trabajo real concreto
• Expertos humanos tienen promedio de 14 años experiencia
• GPT-4o solo ganaba 13.7% hace 15 meses
• Modelos completan tareas 100x más rápido y barato
• Cifras excluyen tiempo de supervisión humana necesario
Por qué es importante
Aquí hagamos la conexión con lo que acabas de leer aquí arriba de HBR, ¿Quién tiene razón, OpenAI o HBR? → AMBOS. OpenAI evaluó tareas con instrucciones claras, archivos organizados y entregables definidos. Pero ese no es el mundo real. En oficinas reales, pocos saben estructurar un prompt, el contexto está en la cabeza de alguien, y los archivos son un desastre.. Los números de OpenAI prueban que la tecnología funciona cuando se usa bien. El artículo de HBR prueba que casi nadie la usa bien. Nuevamente.. La brecha no es técnica, es de formación.