- Soy EmplIAdo
- Posts
- Google destapa el “té eléctrico” de la IA: cuánto consume (de verdad) un prompt
Google destapa el “té eléctrico” de la IA: cuánto consume (de verdad) un prompt
Juegos generados por IA que ya puedes jugar en el navegador, Google detalla el costo energético de Gemini, y las Big Tech compiten por ofrecer IA al gobierno de EE. UU. por centavos.
Leer en nuestro sitio web / Tiempo de lectura para hoy: 10 minutos
Hola, emplIAdos.
Esta semana una micro-startup sacó un truco que sonaba imposible: mundos de videojuego generados por IA en tiempo real, jugables en el navegador.
Se llama Mirage 2 y te deja cabalgar por un Oeste a lo Red Dead y, en medio del paseo, escribir “cambiar a ciudad” para ver cómo el entorno muta al instante. También incluye escenarios artísticos (sí, un “Starry Night” jugable) y recuerda al enfoque de Genie 3 de Google para crear mundos interactivos a partir de texto.
No puedes probar Genie 3 todavía, pero Mirage 2 sí —prepárate para servidores llenos. Y si quieres la explicación técnica y un diálogo ágil, Hannah Fry acaba de entrevistar a los creadores de Genie 3 en el pódcast de DeepMind.
Mide y reduce la huella de tus prompts (paso a paso)
Google publicó el estudio más completo hasta ahora sobre el impacto ambiental de la inferencia (no el entrenamiento). Con mediciones de pila completa (aceleradores, CPU/RAM, máquinas en espera y sobrecosto del centro de datos) calculan que el prompt mediano de Gemini usa 0,24 Wh, emite 0,03 gCO₂e y 0,26 mL de agua (≈ 5 gotas) —menos que ver TV durante 9 segundos. Y en 12 meses reportan 33× de mejora en energía por prompt y 44× en huella de carbono por prompt.
Ojo al detalle: si solo mides la GPU activa (lo “estrecho”), te da 0,10 Wh; con el método integral (lo que realmente cuesta operar el servicio), sube a 0,24 Wh. Por eso necesitamos estándares comparables.
Parte A — Auditoría exprés
Objetivo: tener una estimación razonable —y comparable— del gasto energético/CO₂/agua de tus prompts, sin montar un proyecto de meses.
Define el “límite de medición”
Decide si harás un cálculo estrecho (solo GPU activa) o integral (GPU + CPU/RAM + máquinas en espera + PUE del centro de datos). Para informes ejecutivos y comparaciones, usa integral.Reúne 3 datos mínimos
Volumen de prompts por mes (por producto o equipo).
Tipo de tarea (texto vs. imagen/video) —hoy mediremos texto.
Región/proveedor (para factores de emisión).
Si no tienes telemetría propia, usa el valor de referencia de Google para texto: 0,24 Wh/prompt, 0,03 gCO₂e/prompt, 0,26 mL/prompt como orden de magnitud mientras armas tu tablero.
Calcula energía mensual (kWh)
Fórmula rápida:kWh = (prompts × 0,24 Wh) / 1000
.
Ejemplo: 15.000 prompts/mes ⇒ 3,6 kWh. (0,24 × 15.000 = 3.600 Wh = 3,6 kWh).Calcula CO₂e mensual
Si no tienes factor local, usa el dato por prompt del estudio de Google (0,03 g) para texto:CO₂e = prompts × 0,03 g
.
Ejemplo: 15.000 ⇒ 450 g (= 0,45 kg). Luego, cuando tengas tu factor de red (kgCO₂/kWh) vía Google Cloud Carbon Footprint o equivalente, recalcula con precisión.Calcula agua mensual (estimación)
Agua = prompts × 0,26 mL
.
Ejemplo: 15.000 ⇒ 3,9 L. Nota: la huella hídrica real varía por región/tecnología de enfriamiento; usa esto como proxy.Anota supuestos y límites
Deja explícito que usas un promedio mediano de texto y que no incluye imagen/video. También documenta si usas “estrecho” vs “integral”.Prepara el tablero
Si estás en Google Cloud, exporta Carbon Footprint → BigQuery y monta el bloque de Looker para un dashboard por proyecto/país/servicio.
Para código propio (on-prem o multi-cloud), integra CodeCarbon (Python) para registrar energía/CO₂ por job.
Para benchmarking externo, revisa AI Energy Score y ML.ENERGY (metodologías y leaderboards).
Parte B — Reducción práctica (30–45 min de setup + iteraciones)
Meta: bajar consumo/latencia sin degradar calidad.
Modelo correcto para la tarea
Prioriza modelos pequeños/eficientes para consultas sencillas y reserva los más grandes para razonamiento complejo. (Google atribuye gran parte de la mejora a arquitecturas eficientes como Mixture-of-Experts + mejoras de software).Prompting eficiente
Prompts más cortos y específicos → menos tokens, menos latencia/energía.
Evita chain-of-thought innecesario si no suma exactitud.
Usa grounding/contextos breves y caché de respuestas repetidas.
Orquestación
Ruteo por políticas: small → medium → large según confianza.
Batching donde aplique; KV-cache y especulative decoding reducen cómputo.
Infra
Mide/optimiza PUE del proveedor (Google reporta 1,09 de media anual).
Prefiere regiones con menor intensidad de carbono.
Revisión mensual
KPIs: kWh/1k prompts, gCO₂/1k prompts, mL/1k prompts, latencia P50/P95 y tasa de re-intentos.
Fija metas trimestrales (p.ej., −20% kWh/1k prompts con ruteo inteligente).
Plantillas listas para copiar
1) Solicitud a tu proveedor (correo corto):
“Hola, equipo. Para nuestro reporte de sostenibilidad necesitamos energía/CO₂/agua por prompt con límite de medición integral (GPU, CPU/RAM, máquinas en espera y PUE). ¿Pueden compartir kWh/prompt, gCO₂e/prompt y mL/prompt para texto y multimedia, por región? Gracias.”
2) Nota metodológica (para tu tablero):
“Las métricas de este panel usan el enfoque integral sugerido por Google (0,24 Wh, 0,03 gCO₂, 0,26 mL como referencia para texto). Al migrar a datos del proveedor/CodeCarbon, se reemplazarán los supuestos promedio.”
Caso rápido (con números redondos)
Uso actual: 15.000 prompts/mes (texto).
Energía (referencia): 3,6 kWh/mes.
CO₂e (referencia): 0,45 kg/mes.
Agua (referencia): 3,9 L/mes.
Acción: implementar ruteo “small-first” y recortar tokens en 20%.
Resultado esperado: −20% en consumo → 2,88 kWh, 0,36 kg CO₂e, 3,12 L. (Mismo output, menos costo y latencia).
Cosas que deberías probar hoy
Qué es: el nuevo modelo de DeepSeek con arquitectura MoE: 671B parámetros totales, 37B activos por consulta y contexto 128K. Con licencia MIT para auto-hospedarlo.
Por qué te importa (marketing): ideal para flujos de análisis largos (briefs, research, Q&A legales) a costos contenidos gracias a MoE.
Cómo probarlo en 10 minutos:
Monta el endpoint con los pesos en Hugging Face (GPU con 48–80 GB te rinde para pruebas; en CPU será lento).
Prepara un prompt plantilla con 🎯 Objetivo → 🧱 Contexto → ✅ Criterios de salida.
Ejecuta dos variantes: think on (razona paso a paso) vs non-think (respuestas rápidas). Compara calidad vs. latencia.
Enlace: Hugging Face (card del modelo).
Qué es: un “megacontrolador” que acciona Gmail, Slack, Notion y cientos de apps vía comandos o voz.
Aplicación directa: automatiza tareas repetitivas de tu equipo (archivar correos, reaccionar en Slack, generar docs).
Cómo probarlo:
Crea tu cuenta y autoriza 3 apps (Gmail, Slack, Google Sheets).
Define 3 intenciones: “archiva newsletters”, “marca clientes VIP”, “resumen diario en Slack”.
Escribe un comando: “Rube, resume los correos de clientes de hoy y publícalos en #ventas con bullets y dueños”.
Enlace: Marketplace / docs de Rube.
Qué es: modelo 111B centrado en razonamiento; open-weights para uso de investigación (licencia comercial por Cohere).
Aplicación directa: resumir documentos complejos, generar borradores con citas y trabajar on-prem.
Cómo probarlo:
Descarga los pesos desde Hugging Face y sigue la guía del paper técnico.
Crea un corpus (PDFs de clientes) y usa un prompt con checklist de veracidad (fuentes obligatorias).
Corre un batch de 20 documentos y mide precisión con un set de 10-15 preguntas cerradas.
Qué es: un IDE/agent que lee todo tu repositorio y ejecuta proyectos de punta a punta; el Quest Mode reparte tareas, escribe en múltiples archivos y puede elegir modelo (Claude/GPT/Gemini) por tarea.
Cómo probarlo:
Entra a qoder.com o su guía oficial y crea un “Quest” con el brief de una landing.
Conéctalo a tu repo de staging y define criterios de aceptación (lighthouse > 90, cobertura 80%).
Pide “esqueleto + estilos base + test unitarios” y revisa el PR autogenerado.
5) Evals, sin dolor (tu nueva ventaja competitiva)
Por qué: sin evals no sabrás si tu flujo de IA funciona.
Cómo aprender en 30 min:
Resumen práctico (Peter Yang): guía paso a paso de programmatic + human + LLM-judge + user evals.
Video (Tina Huang): cómo crear task evals personalizadas (ideal para PMs).
Checklist exprés para tu equipo: define 10 prompts “golden”, métricas (Exactitud/Utilidad/Seguridad), LLM-judge con umbrales, y un panel quincenal.
Recomendación de hoy
|
DE NUESTROS SOCIOS.
Los Mejores Prompts del Mercado.

Con God Of Prompts encontrarás los mejores prompts para todo lo que quieras y crear tus mejores órdenes para que ChatGPT y otras plataformas de IA funcionen para ti.
Ventas, productividad, ideas… todo lo tienes con God of Prompts.
Abre tu cuenta y te impresionarás de todo lo que hay dentro.
Puedes abrir tu cuenta gratis, pero si decides adquirir uno de los planes Premium usa este cupón y obtén 10% de descuento: INNOVAITE
Lo Más Caliente
Anthropic prepara ronda de $5–10 B que la valora en $170 B (líder Iconiq; reportado por Bloomberg, TechCrunch, WSJ, etc.). ¿Lectura? Hambre de capital para infra y agentes verticales.
Qué hacer si eres CMO/PM: pide a tu proveedor comparativas de costo/calidad vs. Claude y cláusulas de portabilidad de datos.Precios “casi gratis” para gobierno en EE. UU.
Anthropic OneGov: US$1 para todas las ramas (puerta de entrada, con límites).
Google “Gemini for Government”: US$0.47 por agencia/año en fase inicial.
Acción: si atiendes sector público en LATAM, arma case study de ahorro CAPEX/OPEX con estructura de landing + demo + RFP kit.
Z.AI (con Alibaba Cloud) lanzó agente móvil que reserva, pide delivery y crea contenidos por instrucción, gratis en iOS/Android.
Acción: prueba embudos de conversión por voz (reservas/soporte) y mide time-to-task.Google Search estrena AI Mode “agentic” (acciones: reservar/restaurantes, citas) y lo expande a 180+ países.
Acción: optimiza fichas con datos accionables (horarios en tiempo real, URLs de reserva) y revisa schema.Epic Systems presentó tres herramientas de IA: Art (asistente clínico), Emmie (chatbot paciente) y Penny (ingresos). Más de 100 proyectos en pipeline.
Acción: si vendes salud, prepara integraciones con FHIR y casos de uso “pre-consulta” (pre-autorizaciones, resúmenes).NFL x Microsoft: se amplía la alianza y se despliegan 2,500+ Surface Copilot+ PCs con IA on-device para 32 equipos.
Acción: caso de storytelling para B2B: “IA que no decide por ti, sino que filtra lo relevante en tiempo real”.Bots de IA están saturando sitios web: Fastly detecta picos de 39.000 solicitudes/min de un fetcher y que Meta aporta 52% del tráfico de crawlers.
Acción: pide a tu equipo de web reglas de rate-limit + robots.txt + tokens de verificación; excluye rutas críticas de crawlers y prioriza edge caching.
Consejo del Día
Superhuman AI para dominar tu correo
Objetivo: que tu equipo pase de “inbox caótico” a “inbox dirigido por IA” en 45 minutos. Nos basamos en el video “How I Use Superhuman for Email” (YouTube) y guías oficiales de Superhuman.
Paso 0 — Requisitos
Tener Superhuman activo (Gmail/Outlook) y activar funciones AI en Settings.
Paso 1 — Triage con IA (que la bandeja trabaje por ti)
Activa Auto Labels para separar Promotions/Newsletters/Clientes automáticamente.
Configura Split Inbox para VIPs (ventas/soporte).
Deja Auto Archive para newsletters by default; revisa el recap diario.
KPI: baja el “tiempo hasta cero” a <15 min/día.
Paso 2 — Responder 2× más rápido
Usa Instant Reply / Auto Drafts: cada mail llega con un borrador inicial.
Con Compose with AI, convierte apuntes en respuestas completas con tono “Soy EmplIAdo” (amable, directo).
Ajusta tono/personalidad en el panel (evita rigidez/jerga).
KPI: tasa de respuesta en <4 h para clientes A/B.
Paso 3 — “Ask AI” para contexto y acción
Pregunta dentro del mensaje: “resume hilo en 3 bullets + siguientes pasos con dueños y fechas”.
Usa la creación de eventos desde correos (detectar fechas/lugares y calendarizar).
KPI: reducción de “rebotes” por falta de claridad (>30%).
Paso 4 — Tu playbook en 10 reglas
Atajos (Cmd-K) para todo.
Plantillas por persona (cliente nuevo, prensa, soporte).
Respuestas con variables (nombre, empresa, SLA).
Snooze inteligente con recordatorios.
Bandejas compartidas para atención al cliente.
Checklist de calidad: asunto claro, CTA único, enlace a calendario.
Macros: “confirmar reunión”, “feedback recibido”, “enviar brief”.
Borradores por lotes: procesa 20 en 10 minutos.
Evita tono genérico: añade 1 dato específico del hilo (la IA lo extrae).
Revisión semanal: mide open rate, reply time y hilos estancados.
Apóyate en: guía “using AI to manage emails”.
Extra: Grammarly adquirió Superhuman en julio; ver si llega integración nativa de estilos/tono a nivel equipo. Mantente atento a releases.
|
¿Te sirvió? Sube al Soy EmplIAdo PRO
Videos paso a paso de cada herramienta.
Prompts para copiar‑pegar.
Una sesión en vivo al mes con nuestro director.
La modalidad gratuita continúa, pero la PRO multiplica tu productividad. Únete aquí y transforma cada PDF ladrillo en resultados tangibles.
Conclusión
Esta semana trae una señal clara: la IA deja de ser promesa y se vuelve infraestructura. Anthropic sale a por otra ronda gigante, Google y Anthropic empujan modelos de precio casi simbólico para Gobierno, Microsoft despliega IA on-device en la NFL, y Epic convierte la IA en flujo clínico real.
¿El contrapunto? Los bots empiezan a pasar factura a la web (literalmente), así que toca profesionalizar evals, ops y governance.
Tu plan de domingo a martes:
Habilita Superhuman AI y deja listo tu triage (hoy).
Corre un piloto de Rube con 3 intenciones de negocio (lunes).
Monta un tablero de evals (10 prompts “golden”, umbrales, LLM-judge) y compáralo con Command A / DeepSeek (martes).
Nos vemos mañana con una nueva edición.
Arthur quiere conocer tu opinión del Boletín de hoy. |
Iniciar Sesión o Suscríbete para participar en las encuestas. |
Reply