• Soy EmplIAdo
  • Posts
  • Google destapa el “té eléctrico” de la IA: cuánto consume (de verdad) un prompt

Google destapa el “té eléctrico” de la IA: cuánto consume (de verdad) un prompt

Juegos generados por IA que ya puedes jugar en el navegador, Google detalla el costo energético de Gemini, y las Big Tech compiten por ofrecer IA al gobierno de EE. UU. por centavos.

Leer en nuestro sitio web / Tiempo de lectura para hoy: 10 minutos 

Hola, emplIAdos.

Esta semana una micro-startup sacó un truco que sonaba imposible: mundos de videojuego generados por IA en tiempo real, jugables en el navegador.

Se llama Mirage 2 y te deja cabalgar por un Oeste a lo Red Dead y, en medio del paseo, escribir “cambiar a ciudad” para ver cómo el entorno muta al instante. También incluye escenarios artísticos (sí, un “Starry Night” jugable) y recuerda al enfoque de Genie 3 de Google para crear mundos interactivos a partir de texto.

No puedes probar Genie 3 todavía, pero Mirage 2 sí —prepárate para servidores llenos. Y si quieres la explicación técnica y un diálogo ágil, Hannah Fry acaba de entrevistar a los creadores de Genie 3 en el pódcast de DeepMind.

Mide y reduce la huella de tus prompts (paso a paso)

Google publicó el estudio más completo hasta ahora sobre el impacto ambiental de la inferencia (no el entrenamiento). Con mediciones de pila completa (aceleradores, CPU/RAM, máquinas en espera y sobrecosto del centro de datos) calculan que el prompt mediano de Gemini usa 0,24 Wh, emite 0,03 gCO₂e y 0,26 mL de agua (≈ 5 gotas) —menos que ver TV durante 9 segundos. Y en 12 meses reportan 33× de mejora en energía por prompt y 44× en huella de carbono por prompt.

Ojo al detalle: si solo mides la GPU activa (lo “estrecho”), te da 0,10 Wh; con el método integral (lo que realmente cuesta operar el servicio), sube a 0,24 Wh. Por eso necesitamos estándares comparables.

Parte A — Auditoría exprés

Objetivo: tener una estimación razonable —y comparable— del gasto energético/CO₂/agua de tus prompts, sin montar un proyecto de meses.

  1. Define el “límite de medición”
    Decide si harás un cálculo estrecho (solo GPU activa) o integral (GPU + CPU/RAM + máquinas en espera + PUE del centro de datos). Para informes ejecutivos y comparaciones, usa integral.

  2. Reúne 3 datos mínimos

    • Volumen de prompts por mes (por producto o equipo).

    • Tipo de tarea (texto vs. imagen/video) —hoy mediremos texto.

    • Región/proveedor (para factores de emisión).
      Si no tienes telemetría propia, usa el valor de referencia de Google para texto: 0,24 Wh/prompt, 0,03 gCO₂e/prompt, 0,26 mL/prompt como orden de magnitud mientras armas tu tablero.

  3. Calcula energía mensual (kWh)
    Fórmula rápida: kWh = (prompts × 0,24 Wh) / 1000.
    Ejemplo: 15.000 prompts/mes ⇒ 3,6 kWh. (0,24 × 15.000 = 3.600 Wh = 3,6 kWh).

  4. Calcula CO₂e mensual
    Si no tienes factor local, usa el dato por prompt del estudio de Google (0,03 g) para texto:
    CO₂e = prompts × 0,03 g.
    Ejemplo: 15.000 ⇒ 450 g (= 0,45 kg). Luego, cuando tengas tu factor de red (kgCO₂/kWh) vía Google Cloud Carbon Footprint o equivalente, recalcula con precisión.

  5. Calcula agua mensual (estimación)
    Agua = prompts × 0,26 mL.
    Ejemplo: 15.000 ⇒ 3,9 L. Nota: la huella hídrica real varía por región/tecnología de enfriamiento; usa esto como proxy.

  6. Anota supuestos y límites
    Deja explícito que usas un promedio mediano de texto y que no incluye imagen/video. También documenta si usas “estrecho” vs “integral”.

  7. Prepara el tablero

    • Si estás en Google Cloud, exporta Carbon Footprint → BigQuery y monta el bloque de Looker para un dashboard por proyecto/país/servicio.

    • Para código propio (on-prem o multi-cloud), integra CodeCarbon (Python) para registrar energía/CO₂ por job.

    • Para benchmarking externo, revisa AI Energy Score y ML.ENERGY (metodologías y leaderboards).

Parte B — Reducción práctica (30–45 min de setup + iteraciones)

Meta: bajar consumo/latencia sin degradar calidad.

  1. Modelo correcto para la tarea
    Prioriza modelos pequeños/eficientes para consultas sencillas y reserva los más grandes para razonamiento complejo. (Google atribuye gran parte de la mejora a arquitecturas eficientes como Mixture-of-Experts + mejoras de software).

  2. Prompting eficiente

    • Prompts más cortos y específicos → menos tokens, menos latencia/energía.

    • Evita chain-of-thought innecesario si no suma exactitud.

    • Usa grounding/contextos breves y caché de respuestas repetidas.

  3. Orquestación

    • Ruteo por políticas: small → medium → large según confianza.

    • Batching donde aplique; KV-cache y especulative decoding reducen cómputo.

  4. Infra

    • Mide/optimiza PUE del proveedor (Google reporta 1,09 de media anual).

    • Prefiere regiones con menor intensidad de carbono.

  5. Revisión mensual

    • KPIs: kWh/1k prompts, gCO₂/1k prompts, mL/1k prompts, latencia P50/P95 y tasa de re-intentos.

    • Fija metas trimestrales (p.ej., −20% kWh/1k prompts con ruteo inteligente).

Plantillas listas para copiar

1) Solicitud a tu proveedor (correo corto):

“Hola, equipo. Para nuestro reporte de sostenibilidad necesitamos energía/CO₂/agua por prompt con límite de medición integral (GPU, CPU/RAM, máquinas en espera y PUE). ¿Pueden compartir kWh/prompt, gCO₂e/prompt y mL/prompt para texto y multimedia, por región? Gracias.”

2) Nota metodológica (para tu tablero):

“Las métricas de este panel usan el enfoque integral sugerido por Google (0,24 Wh, 0,03 gCO₂, 0,26 mL como referencia para texto). Al migrar a datos del proveedor/CodeCarbon, se reemplazarán los supuestos promedio.”

Caso rápido (con números redondos)

  • Uso actual: 15.000 prompts/mes (texto).

  • Energía (referencia): 3,6 kWh/mes.

  • CO₂e (referencia): 0,45 kg/mes.

  • Agua (referencia): 3,9 L/mes.
    Acción: implementar ruteo “small-first” y recortar tokens en 20%.
    Resultado esperado: −20% en consumo → 2,88 kWh, 0,36 kg CO₂e, 3,12 L. (Mismo output, menos costo y latencia).

Cosas que deberías probar hoy

Qué es: el nuevo modelo de DeepSeek con arquitectura MoE: 671B parámetros totales, 37B activos por consulta y contexto 128K. Con licencia MIT para auto-hospedarlo.

Por qué te importa (marketing): ideal para flujos de análisis largos (briefs, research, Q&A legales) a costos contenidos gracias a MoE.

Cómo probarlo en 10 minutos:

  1. Monta el endpoint con los pesos en Hugging Face (GPU con 48–80 GB te rinde para pruebas; en CPU será lento).

  2. Prepara un prompt plantilla con 🎯 Objetivo → 🧱 Contexto → ✅ Criterios de salida.

  3. Ejecuta dos variantes: think on (razona paso a paso) vs non-think (respuestas rápidas). Compara calidad vs. latencia.
    Enlace: Hugging Face (card del modelo).

Qué es: un “megacontrolador” que acciona Gmail, Slack, Notion y cientos de apps vía comandos o voz.

Aplicación directa: automatiza tareas repetitivas de tu equipo (archivar correos, reaccionar en Slack, generar docs).

Cómo probarlo:

  1. Crea tu cuenta y autoriza 3 apps (Gmail, Slack, Google Sheets).

  2. Define 3 intenciones: “archiva newsletters”, “marca clientes VIP”, “resumen diario en Slack”.

  3. Escribe un comando: “Rube, resume los correos de clientes de hoy y publícalos en #ventas con bullets y dueños”.
    Enlace: Marketplace / docs de Rube.

Qué es: modelo 111B centrado en razonamiento; open-weights para uso de investigación (licencia comercial por Cohere).

Aplicación directa: resumir documentos complejos, generar borradores con citas y trabajar on-prem.

Cómo probarlo:

  1. Descarga los pesos desde Hugging Face y sigue la guía del paper técnico.

  2. Crea un corpus (PDFs de clientes) y usa un prompt con checklist de veracidad (fuentes obligatorias).

  3. Corre un batch de 20 documentos y mide precisión con un set de 10-15 preguntas cerradas.

Qué es: un IDE/agent que lee todo tu repositorio y ejecuta proyectos de punta a punta; el Quest Mode reparte tareas, escribe en múltiples archivos y puede elegir modelo (Claude/GPT/Gemini) por tarea.

Cómo probarlo:

  1. Entra a qoder.com o su guía oficial y crea un “Quest” con el brief de una landing.

  2. Conéctalo a tu repo de staging y define criterios de aceptación (lighthouse > 90, cobertura 80%).

  3. Pide “esqueleto + estilos base + test unitarios” y revisa el PR autogenerado.

5) Evals, sin dolor (tu nueva ventaja competitiva)

Por qué: sin evals no sabrás si tu flujo de IA funciona.

Cómo aprender en 30 min:

  • Resumen práctico (Peter Yang): guía paso a paso de programmatic + human + LLM-judge + user evals.

  • Video (Tina Huang): cómo crear task evals personalizadas (ideal para PMs).

  • Checklist exprés para tu equipo: define 10 prompts “golden”, métricas (Exactitud/Utilidad/Seguridad), LLM-judge con umbrales, y un panel quincenal.

Recomendación de hoy

Pensamientos ContrariosSomos una comunidad de Rebeldes del Pensamiento que cuestiona lo establecido, porque sabemos que «Las ideas cómodas no cambian nada». Aquí pensamos distinto, aunque incomode.

DE NUESTROS SOCIOS.

Los Mejores Prompts del Mercado.

Con God Of Prompts encontrarás los mejores prompts para todo lo que quieras y crear tus mejores órdenes para que ChatGPT y otras plataformas de IA funcionen para ti.

Ventas, productividad, ideas… todo lo tienes con God of Prompts.

Abre tu cuenta y te impresionarás de todo lo que hay dentro.

Puedes abrir tu cuenta gratis, pero si decides adquirir uno de los planes Premium usa este cupón y obtén 10% de descuento: INNOVAITE

Lo Más Caliente

  1. Anthropic prepara ronda de $5–10 B que la valora en $170 B (líder Iconiq; reportado por Bloomberg, TechCrunch, WSJ, etc.). ¿Lectura? Hambre de capital para infra y agentes verticales.
    Qué hacer si eres CMO/PM: pide a tu proveedor comparativas de costo/calidad vs. Claude y cláusulas de portabilidad de datos.

  2. Precios “casi gratis” para gobierno en EE. UU.

    • Anthropic OneGov: US$1 para todas las ramas (puerta de entrada, con límites).

    • Google “Gemini for Government”: US$0.47 por agencia/año en fase inicial.
      Acción: si atiendes sector público en LATAM, arma case study de ahorro CAPEX/OPEX con estructura de landing + demo + RFP kit.

  3. Z.AI (con Alibaba Cloud) lanzó agente móvil que reserva, pide delivery y crea contenidos por instrucción, gratis en iOS/Android.
    Acción: prueba embudos de conversión por voz (reservas/soporte) y mide time-to-task.

  4. Google Search estrena AI Mode “agentic” (acciones: reservar/restaurantes, citas) y lo expande a 180+ países.
    Acción: optimiza fichas con datos accionables (horarios en tiempo real, URLs de reserva) y revisa schema.

  5. Epic Systems presentó tres herramientas de IA: Art (asistente clínico), Emmie (chatbot paciente) y Penny (ingresos). Más de 100 proyectos en pipeline.
    Acción: si vendes salud, prepara integraciones con FHIR y casos de uso “pre-consulta” (pre-autorizaciones, resúmenes).

  6. NFL x Microsoft: se amplía la alianza y se despliegan 2,500+ Surface Copilot+ PCs con IA on-device para 32 equipos.
    Acción: caso de storytelling para B2B: “IA que no decide por ti, sino que filtra lo relevante en tiempo real”.

  7. Bots de IA están saturando sitios web: Fastly detecta picos de 39.000 solicitudes/min de un fetcher y que Meta aporta 52% del tráfico de crawlers.
    Acción: pide a tu equipo de web reglas de rate-limit + robots.txt + tokens de verificación; excluye rutas críticas de crawlers y prioriza edge caching.

Consejo del Día

Superhuman AI para dominar tu correo

Objetivo: que tu equipo pase de “inbox caótico” a “inbox dirigido por IA” en 45 minutos. Nos basamos en el video “How I Use Superhuman for Email” (YouTube) y guías oficiales de Superhuman.

Paso 0 — Requisitos

  • Tener Superhuman activo (Gmail/Outlook) y activar funciones AI en Settings.

Paso 1 — Triage con IA (que la bandeja trabaje por ti)

  1. Activa Auto Labels para separar Promotions/Newsletters/Clientes automáticamente.

  2. Configura Split Inbox para VIPs (ventas/soporte).

  3. Deja Auto Archive para newsletters by default; revisa el recap diario.

    KPI: baja el “tiempo hasta cero” a <15 min/día.

Paso 2 — Responder 2× más rápido

  1. Usa Instant Reply / Auto Drafts: cada mail llega con un borrador inicial.

  2. Con Compose with AI, convierte apuntes en respuestas completas con tono “Soy EmplIAdo” (amable, directo).

  3. Ajusta tono/personalidad en el panel (evita rigidez/jerga).

    KPI: tasa de respuesta en <4 h para clientes A/B.

Paso 3 — “Ask AI” para contexto y acción

  • Pregunta dentro del mensaje: “resume hilo en 3 bullets + siguientes pasos con dueños y fechas”.

  • Usa la creación de eventos desde correos (detectar fechas/lugares y calendarizar).

    KPI: reducción de “rebotes” por falta de claridad (>30%).

Paso 4 — Tu playbook en 10 reglas

  1. Atajos (Cmd-K) para todo.

  2. Plantillas por persona (cliente nuevo, prensa, soporte).

  3. Respuestas con variables (nombre, empresa, SLA).

  4. Snooze inteligente con recordatorios.

  5. Bandejas compartidas para atención al cliente.

  6. Checklist de calidad: asunto claro, CTA único, enlace a calendario.

  7. Macros: “confirmar reunión”, “feedback recibido”, “enviar brief”.

  8. Borradores por lotes: procesa 20 en 10 minutos.

  9. Evita tono genérico: añade 1 dato específico del hilo (la IA lo extrae).

  10. Revisión semanal: mide open rate, reply time y hilos estancados.
    Apóyate en: guía “using AI to manage emails”.

Extra: Grammarly adquirió Superhuman en julio; ver si llega integración nativa de estilos/tono a nivel equipo. Mantente atento a releases.

Ingresos Pasivos InteligentesEste boletín va de estrategias e ideas INCREIBLES para construir Ingresos Pasivos Inteligentes.

¿Te sirvió? Sube al Soy EmplIAdo PRO

  • Videos paso a paso de cada herramienta.

  • Prompts para copiar‑pegar.

  • Una sesión en vivo al mes con nuestro director.

La modalidad gratuita continúa, pero la PRO multiplica tu productividad. Únete aquí y transforma cada PDF ladrillo en resultados tangibles.

Conclusión

Esta semana trae una señal clara: la IA deja de ser promesa y se vuelve infraestructura. Anthropic sale a por otra ronda gigante, Google y Anthropic empujan modelos de precio casi simbólico para Gobierno, Microsoft despliega IA on-device en la NFL, y Epic convierte la IA en flujo clínico real.

¿El contrapunto? Los bots empiezan a pasar factura a la web (literalmente), así que toca profesionalizar evals, ops y governance.

Tu plan de domingo a martes:

  1. Habilita Superhuman AI y deja listo tu triage (hoy).

  2. Corre un piloto de Rube con 3 intenciones de negocio (lunes).

  3. Monta un tablero de evals (10 prompts “golden”, umbrales, LLM-judge) y compáralo con Command A / DeepSeek (martes).

Nos vemos mañana con una nueva edición.

Arthur quiere conocer tu opinión del Boletín de hoy.

Iniciar Sesión o Suscríbete para participar en las encuestas.

Reply

or to participate.