Notas del colapso del Sillicon Valley Bank

Con $ 212 mil millones en activos y una capitalización de mercado de $ 16 mil millones el miércoles, el colapso del Sillicon Valley Bank (SVB) es con mucho, la mayor quiebra bancaria desde la crisis financiera mundial.

Nadie sabe si el cierre del SVB provocará un efecto contagio/cascada tipo Lehman (dependerá de si el gobierno interviene o no), pero el caso es interesante de analizar, ya que (1) muestra la fragilidad del sistema financiero basado en reserva fraccionaria y (2) hace ver cómo las erróneas políticas monetarias que están empleando los bancos centrales de todo el mundo vs inflación, pueden provocar una crisis económica. Y es que cuando se pasa de estar con un tipo de interés del 0% y del dopaje monetario para funcionar (las QEs salvaron el sys en 2008 y en 2020) a un tipo de descuento de casi el 5% en menos de 1 año, es casi imposible que no se rompa nada.

Ahora bien, para entender lo que ha pasado con el SVB hay que entender primero 3 cosas del negocio bancario:

[1] Los bancos, para poder funcionar nos ofrecen un rendimiento por guardar el dinero que necesariamente es inferior al que exigen cuando prestan. En otro caso, no habría negocio.

[2] Los sistemas bancarios modernos están estructuralmente en suspensión de pagos (con pasivos a corto mayores que sus activos a corto) debido al descalce de plazos que posibilita la reserva fraccionaria o los bajos coeficientes de caja existentes. El coeficiente de caja (c) es igual a la ratio entre los activos del sistema bancario o reservas (R) y los depósitos entregados por los ahorradores al banco (D), (c = R/D). Así, un coeficiente de reserva del 2% significa que por cada 100 € que depositamos en una entidad, ésta mantiene 2 € como reservas legales y tiene la capacidad de prestar por valor de 98.  En EEUU, desde 2020, el coeficiente de reserva es del 0%. Esto implica un problema estructural de inestabilidad para el sistema financiero en conjunto, que de vez en cuando, provoca pánicos bancarios. Nuestros depósitos son los pasivos a corto o muy corto de los bancos (tenemos derecho inmediato a nuestro dinero, aunque no lo ejerzamos), mientras que los préstamos que concede la banca (sus activos) se dan siempre a plazos superiores (a 1 año, 2 años, 5 años, etc). Como el importe del pasivo a corto, es superior al activo circulante PC > AC,  la banca vive permanentemente  en una situación de suspensión de pagos técnica, ya que si todo el mundo se coordinase para retirar su dinero a la vez, ningún banco tendría los recursos necesarios para hacer frente a sus obligaciones.

[3] Los bancos, como cualquier otra empresa, pueden entrar en una situación de insolvencia o de quiebra técnica, en las que las deudas son mayores que el valor contable de los activos de la empresa P > A, lo que implicará que los fondos propios sean negativos (FP < 0) debido a los resultados negativos.

Del balance del SVB conviene destacar dos elementos:

  • tenían unos 13 mil millones de core capital (208 – 195) y
  • 91 mil millones en deuda a largo plazo.

En el colapso del SVB, la política de la FED ha jugado un rol clave, ya que las subidas de tipos han tenido un efecto devastador en el valor contable de la cartera de deuda a largo plazo de 91 millones que tenían en 2022.  Un ejercicio numérico simple puede servir para ver esto más claramente.

[a] Si SVB tenía una cartera de bonos al 2% a 10 años comprados a precio 100$, y los mantenía hasta el final, esos bonos le pagaban 122$.  

[b] Tras la subida de tipos a casi el 5%, el comprar nuevos bonos a precio 100$ emitidos a este tipo de interés más alto, pagaba unos 166$ si se mantenían hasta el final.

Hay que recordar que los bonos compiten entre sí en el tipo de interés que ofrecen. Por tanto, el precio del primer tipo de bono (el que tenía SVB) ha tenido que caer un 25-26% ((166-122)/166) para ajustarse y poder competir con las rentabilidades que ofrecían los nuevos bonos emitidos tras las subidas de tipos (el precio de los bonos y su interés se relacionan inversamente).  El punto clave es que con la subida de tipos que ha realizado la FED la gente podía conseguir rentabilidades del 4 y 5% en bonos a plazos de 2 años. ¿Y quién quiere aguantar invertido en un bono que paga el 2% durante 10-20 años cuando puedes conseguir otro que paga el doble y a menos plazo? Nadie.

Así pues, las ventas masivas del tipo de bonos que tenía SVB han devaluado fuertemente el valor de los activos que tenían en el balance. Si aplicamos una pérdida aproximada de valor del 25% a los 91 mil millones que tenían en su cartera de bonos, vemos que, si esos activos se tuviesen que vender a fecha de hoy, valdrían 23 mil millones menos de lo que refleja el balance. Esa pérdida de valor en los activos es mayor que el patrimonio neto de 13 mil millones, lo que hace que, de repente, el banco se haya visto con un patrimonio neto negativo.

En definitiva, la política monetaria de la FED ha destrozado el valor de la cartera de deuda/renta fija de SVB.  Los depositantes, anticipando problemas han querido retirar su dinero en masa, y esto no ha hecho sino evidenciar otro problema: la situación de suspensión de pagos estructural en la que opera el sector. Como no hay reservas para hacer frente a las obligaciones a corto plazo SVB ha durado dos días.

El colapso de SVB es interesante ya que muestra la fragilidad del sistema. Esto no es un banco de inversión con una ratio de apalancamiento del 31/1 tipo Lehman Brothers en 2008, ni una criptomoneda algorítmica tipo Terra-Luna. Es un banco comercial regional de “venture capitalists” y emprendedores en tech, etc, que no estaba haciendo nada fuera de la ortodoxia financiera. Y da que pensar, ya que el problema de las carteras de los bancos en renta fija podría ser generalizado. Mi duda es ¿Cuantos bancos tienen un patrimonio neto que aguante devaluaciones del 25% de su cartera de deuda a largo plazo?  

Publicado en Economía y finanzas, Política Monetaria, Productos financieros, sistema monetario | 2 comentarios

Los errores de la FED y el “making-off” de la recesión global de 2023

El año 2022 ha sido muy interesante desde el punto de vista macroeconómico. Es el año de la reapertura de la economía postpandemia del COVID-19, del retorno de la inflación y las carestías en materias primas clave, del inicio de una guerra económica y militar en Europa, de las devaluaciones masivas y quiebras de países emergentes, y también el de la gestación de la recesión global de 2023.

Ahora veremos el por qué todo este “cocktail” podría acabar siendo bastante épico y doloroso durante 2023 y el rol que ha jugado la FED.  Para ubicarnos en este contexto, hay que recordar que la Federal Reserve (FED) (el banco central americano), tiene un doble mandato, que es difícil de cumplir. Esto se debe a que tiene dos objetivos que suelen estar reñidos, (1) estabilidad de precios y (2) bajo desempleo. Y como se puede ver en la Figura 1, hay una relación negativa entre ambos: cuando el desempleo baja la inflación sube y viceversa.

Figura 1: Inflación y desempleo, 1981-2017

Fuente: Mishkin et al. 2019

Error #1: Sobre reaccionar a la pandemia

Comenzaremos por el principio, con la pandemia. En marzo y abril de 2020, cuando estalló la pandemia de COVID-19 y se impusieron los confinamientos y restricciones a la movilidad humana (que cayó hasta un 50% como muestra la Figura 2), la tasa de desempleo en EEUU se disparó…

Figura 2: Movilidad humana, 2020-2021

Fuente: Google mobility reports

Figura 3: Tasa de desempleo

Fuente: ST. LOUIS FED

…la FED entró en pánico, y lanzó una de las políticas monetarias expansivas más salvajes  que se han hecho nunca. Querían evitar un desastre social, por lo que, en un lapso muy breve, imprimió el 30% de todo el dinero que se había creado hasta la fecha en la historia. El objetivo era evitar que la falta de liquidez de consumidores y empresas provocase una cadena de impagos que contagiase a los bancos y que se repitiese un evento financiero sistémico tipo 2007-2009.  

Este fue el primer error: “pasarse con la impresora de dinero”. La magnitud de la inyección de dinero en el sistema durante 2020 fue brutal, y se puede ver claramente en el salto del agregado de la M2 en la Figura 4, que pasó de 15 billones a casi 22 billones de dólares.

Figura 4: Masa Monetaria M2

Fuente: ST. LOUIS FED

Todo este dinero sirvió para disparar el consumo y la demanda de bienes de una población confinada, que reemplazó y sustituyó el gasto que en condiciones normales habría ido destinado a los servicios. Para que el lector se haga una idea, en EEU el consumo de bienes típicamente contabiliza un 35% del total del consumo mientras que los servicios son el 65% restante.  Por tanto, en un contexto en el que no se podía gastar en servicios, pero sí comprar bienes; la inyección de dinero de la FED lo que hizo fue estresar todavía más las cadenas de suministro, que ya estaban sumidas en un caos total por los lockdowns asíncronos que se daban por todo el planeta. Las restricciones habían hecho que nada estuviese en su sitio: no había trabajadores en los puertos, faltaban camioneros, faltaban chips…, y el coste de mover productos en un sistema globalizado y fuertemente interconectado se multiplico por 5 como muestra la Figura 5.

Figura 5: Índice global de tarifas de fletes de contenedores

Fuente: Statista.com

Error #2: No hacernada para controlar la inflación durante todo 2021  

Así, durante la segunda mitad de 2020 y el primer trimestre de 2021 se gestó una bomba de relojería con dos ingredientes:

  • Una demanda artificialmente dopada, que no caía por las políticas monetarias (y fiscales) expansivas
  • Una oferta global desestructurada y al límite de capacidad, que no daba abasto para satisfacer la demanda de bienes.

Dada una oferta fija o en contracción, si la demanda se mantiene o sube tarde o temprano, suben los precios. Las subidas de precios comenzaron a asomar en el IPC de abril de 2021 en el que la inflación se situó en un insólito 4.1%. En mayo de 2021 en un 4.9%. Y de ahí hasta casi alcanzar cifras de doble dígito como se ve en la Figura 6.

Figura 6: Inflación EEUU

Fuente: Elaboración propia, datos ST. LOUIS FED

A toro pasado es fácil ver que ese era el momento en el que la FED tenía que haber actuado. Sin embargo, en aquellas fechas, era difícil determinar si la inflación que registraba el IPC se debía (i) a los problemas de las cadenas de suministro, o (ii) a las políticas expansivas. En la FED decidieron catalogar la inflación como “transitoria”, no hacer nada y “esperar a ir viendo más datos”. Este fue su segundo gran error, mucho menos justificable que el primero. 

Usando la diferencia entre (i) el tipo de interés óptimo/automático para equilibrar mercados financieros y de bienes implicado por la regla de Taylor y (ii) el tipo efectivo fijado por la FED, se puede medir el tamaño del tamaño de “la cagada en la gestión de la política monetaria”. En la Figura 7 abajo, se puede ver que ya verano de 2021 los tipos deberían haberse aumentado hasta el 8% y no en el 0%. Finalmente, en noviembre de 2021, con seis meses de retraso, Powell, el presidente de la FED, anunció que iba a virar el tipo de política. Pero no fue hasta marzo de 2022 que comenzó el ciclo de subidas de tipos de interés. En ese momento los tipos estaban al 0.07% cuando ya debían haberse subido agresivamente hasta el 10%. Es decir, se tardaron once meses en reaccionar con una política muy laxa demasiado tiempo.

Figura 7: Taylor rule vs tipo efectivo

Fuente: Elaboración con datos del ST LOUIS FED, modelo de LW y estimaciones de la regla de Taylor del autor.

A la inercia inflacionaria que ya se había ido gestando, se le sumó la invasión militar de Rusia a Ucrania con un shock energético comparable al de 1973. El petróleo ruso representa alrededor del 10% del suministro mundial de petróleo y proveía aproximadamente el 40% del gas de toda la UE. La reacción del bloque OTAN/occidental para castigar la invasión rusa fue sancionar económicamente a Rusia con restricciones financieras y a la exportación e importación, a fin de “frustrar efectivamente las capacidades rusas para continuar con la agresión”.  El efecto fue que el petróleo ruso dejaría de comercializarse la misma medida, lo que provocó una brecha en el suministro. Todo esto contribuyó a meterle más presión al alza a los precios de la energía, lo que se traduje en que el precio promedio de la gasolina en EEUU pasase de unos 2.8$ por galón a 5$ por galón.

Figura 8: Precio gasolina en EEUU

Fuente: Gasprices

Afortunadamente, los peores escenarios de hambrunas globales que comentábamos en este post y las proyecciones inflación energética y facturas energéticas desorbitadas que hacían otros analistas a raíz de la guerra no se han materializado.  La UE permitió la exportación de fertilizantes, la reapertura del puerto de Odessa salvó el suministro de grano desde Ucrania al mundo y los esfuerzos de los gobiernos por cubrir las facturas han servido para proteger a los consumidores. Otro factor clave que ha hecho que 2022 no sea desastroso han sido los lockdowns en China. Una economía china cerrada al mundo y con baja movilidad no necesita tanto petróleo, lo que unido a que EEUU ha vaciado sus reservas y a las expectativas de recesión de 2023 en el resto del planeta, ha evitado la tormenta perfecta. Además, con la progresiva vuelta a la normalidad, los costes del comercio global han bajado casi a niveles pre-pandemia (ver Figura 5) y la tendencia de precios generales ya sugiere que llevamos varios meses en territorio “desinflacionario” (ver Figura 6 o este post). El sistema está absorbiendo el shock y re-equilibrándose. Eso sí, con unos precios un 10% más altos que hace un año pero al menos… no se ha roto nada todavía.   

Error #3: Dejar los tipos de interés en niveles demasiado altos (o subirlos) durante 2023

Desafortunadamente los gobernadores de la FED parece que quieren asegurarse de destrozar la economía americana y la global, y tras la subida de tipos más rápida de la historia (pasando del 0.25 al 4.25% en sólo 9 meses, ver Figura 9), han anunciado que durante 2023 seguirán subiendo tipos hasta el 5.1%. Esto tiene muchísimas ramificaciones, pero me centraré en subrayar que la FED se está equivocando de nuevo.

Figura 9: Ciclos de subidas de tipos de interés durante la historia económica reciente

Fuente: Statista.com

Comentaba que según la regla de Taylor la FED debería haber actuado ya en 2021 subiendo tipos, y que cuando comenzó el ciclo de subidas en marzo de 2022 llegaba muy tarde. Ahora podemos preguntarnos: ¿Es realmente necesario seguir subiendo tipos de interés cuando el sistema parece que se está reequilibrando sólo? ¿Qué debería estar haciendo ahora si utilizasen los mejores datos disponibles que hay sobre la dinámica del mercado inmobiliario americano? Pues precisamente lo contrario a lo que ha dicho que va a hacer.  Y el motivo es que la FED está utilizando datos desfasados, que van con un retraso de entre 12 meses para el componente de rentas de la vivienda. Si la vivienda no fuese un componente clave no pasaría nada, pero la vivienda por sí sola representa aproximadamente el 40% del CPI en EEUU. Esto distorsiona todo. Básicamente están viendo el pasado, y es muy posible que en EEU estén ya en deflación y no lo sepan, como muestra mi estimación del verdadero dato de inflación mensual de noviembre de 2021.

Figura 10: La dinámica de precios del sector inmobilario ZORI y rentas imputadas

Fuente: Zillow research

Figura 11: Tasa de inflación mes a mes

Fuente: Elaboración propia con datos del US BLS y Zillow

Así pues, he re-estimado la serie de inflación americana sustituyendo el componente del inmobiliario por el Zillow Observed Rent Index (ZORI) y manteniendo el resto de componentes y los pesos que utiliza el US Bureau of Labor Statistics. Con esos datos he recalculado el tipo de interés óptimo a fecha de hoy en base a la regla de Taylor con una serie temporal de datos que refleja los precios “de ahora”, y no “de hace 12 meses”. También he usado los escenarios de Goldman Sachs sobre crecimiento e inflación en 2023. El resultado es que los tipos de interés ahora deberían haber comenzado a bajar hace ya unos meses. De hecho, como la intervención se ha retrasado tanto, el tipo óptimo a fecha de hoy (un 6%) todavía estaría por encima del tipo terminal esperado del ciclo de subidas de tipos.

Figura 12: El futuro error de la FED

Fuente: Elaboración propia con datos del US BLS y Zillow, modelo de LW y estimaciones de la regla de Taylor del autor.

Para que quede claro: el uso de datos del inmobiliario desfasados hará que la FED durante los próximos meses vea que el IPC se mantiene alto o baja muy lentamente, lo que le dará argumentos para seguir subiendo tipos o mantenerlos demasiado altos. Sin embargo, la realidad es que estamos entrando en deflación y el tipo óptimo debería bajar del 6% al 1% en lugar de subirlo del 4.25% al rango del 5.1% – 5.25% como tiene planeado.

Estas subidas de tipos de interés forzarán al resto de bancos centrales a subir sus tipos para defender sus monedas y evitar fugas de capitales, haciendo que la política monetaria se vuelva más restrictiva en todo el planeta al mismo tiempo. Esto en un contexto en el que como muestra la Figura 13 las condiciones de endurecimiento o de “tightening” global están cerca de máximos históricos. Y este es el tercer error que va a cometer la FED: utilizar datos desfasados, pasarse de duros cuando deberían estar aflojando y contagiar la política monetaria represiva al resto del planeta.

Figura 13: Condiciones de endurecimiento financiero global

Fuente: Greenberg Center for Geoeconomic Studies

Conclusión

La FED la ha pifiado ya dos veces en los últimos dos años. Primero por pasarse inyectando liquidez y permitir la gestación de una bomba inflacionaria durante todo 2020. Segundo, por no reaccionar a tiempo para frenarla y no subir tipos agresivamente en 2021, dejando que la inflación se propagara por todo el sistema. My bet: la tercera gran pifia será subir tipos cuando debería bajarlos, lo que hundirá la demanda global y de EEUU en 2022 y forzará una cascada de políticas restrictivas en todo el planeta cuando el sistema ya se estaba reequilibrando.  

Publicado en Economía y finanzas, Política Monetaria | Etiquetado , , | 1 Comentario

Peak inflation

A pesar del riesgo sistémico asociado a que la inflación se quedase pegada al sistema, la evidencia va acumulándose y sugiere que ya hemos pasado el pico de inflación (al menos en los EEUU)

  1. Prácticamente todas las materias primas han caído y el coste de mover cosas por el planeta ya está volviendo a niveles de 2020 (aunque sige 2X con respecto pre-pandemia).

Global container freight rate index from January 2019 to September 2022

2. Por otro lado, las google search trends ya muestran que el interés por los precios podría haber hecho pico el mes pasado y las expectativas de inflación en EUU ya se han dado la vuelta.

US Inflation expectations 2014-2022

Google search trends: inflation

3. Más importante todavía, el indicador M2 de la masa monetaria, que va adelantado entre 12-14 meses a los precios, muestra que la velocidad de creación de dinero actual, está ya muy baja. En EEUU está ya a un ritmo similar al histórico del 5%, por lo que el shock monetario del estímulo de la crisis del covid-19, ya está absorbido. Para ello, las bolsas ya han quemado 10 billones de capital financiero en exceso en 9 meses (unas 8 veces el valor de España o 5.5 Italias) con unas caídas del 25%-30% en el SP500 y NASDAQ100.

Core CPI vs M2 change

Por lo general, son buenas noticias.

Si las cosas can bien, los subidas de precios se frenarán bruscamente en los próximos 2 o 3 meses. En 12 meses la inflación de los EEUU ya estará en el 2-3% y nos escaparemos de vivir una época como la de Volker en los 80′ con los intereses al 15-20%.

A partir de ahí, lo racional sería que a mediados de 2023, los economistas de la FED pivoten hacia tipos más bajos, para parar la carnicería que está haciendo el dólar en los sistemas de tipos de cambios de todo el mundo. Así, la moderación del dólar va a ser clave para evitar que los efectos de segunda ronda de esta crisis inflacionaria no provoquen una cadena de defaults en todo el mundo.

La fuerza del dólar debido a la política monetaria restrictiva para controlar la inflación en EEUU, se ha convertido en gran parte de la debilidad del mundo. El dólar es la moneda de facto para el comercio mundial, y su pronunciado aumento está afectando a decenas de países de bajos ingresos, principalmente aquellos que dependen en gran medida de las importaciones de alimentos y petróleo y piden préstamos en dólares para financiarlos. Así, ya hay quien habla de que lo importante ahora va a ser evitar el «Great Default», ya que hay más de 12 países con spreads > 1000 puntos. Sri Lanka ya suspendió pagos y usando la fórmula clásica de probabilidad implicita de default; diferenciales de más de 1000 puntos equivalen a que el país más seguro, que es Nigeria, ya tenga como poco una probabilidad del 25% de caer en suspensión de pagos.

Finalmente, en Europa, el futuro es también incierto y depende de la gran incógnita del conflicto de Ucrania y Rusia y su resolución o no. (pero a este tema ya le dedicaremos un análisis especial más adelante).




Publicado en Política Monetaria | 1 Comentario

El infierno “Cripto” que viene

$TerraUSD es la primera «stable coin» que colapsa en 2022 (junto con su token hermana para balanceo algorítmico $LUNA).

Se suponía que la gente de la Luna Foundation Guard tenía unos 71 mil bitcoins por valor de 2 mil millones, con el objetivo de mantener la paridad con el dólar, pero el volumen de cortos y el pánico desatado los días 11 y 12 de mayo los fulminó. El resultado es que se han volatilizado 14 mil millones en pocos días.


Cómo se ve en el gráfico abajo, la paridad de 1 TerraUSD = 1$ se esfumó y ahora TerraUSD sólo cotiza a 0.26$ dólares.

Cotización TerraUSD

Aunque el caso de TerraUSD y LUNA huele a esquema ponzi, el verdadero elefante en la habitación en el mundo cripto es Thether (USDT). Thether tiene una capitalización de mercado de aproximadamente 80 mil millones. El proyecto lo gestiona una fundación privada no auditada que se «supone» que tiene reservas para mantener un tipo fijo de 1 a 1 con el dólar. No se cuánto tiempo tardará en explotar, pero con el nivel de destrucción de valor que se está viviendo en todo el ecosistema financiero durante 2022, es probable que caiga en la siguiente oleada de ventas por pánico.

De hecho, el jueves 12 de mayo se salvaron de la quema por muy poco, ya que el cambio se les fue a 0.95. Si el Thether (USDT) colapsase y no fuese capaz de mantener la paridad, las ramificaciones en diferentes “exchanges” serían inevitables, lo que podría provocar una cascada de quiebras y de incautaciones brutal.

Cotización Theter (USDT)

De hecho, costaría mucho recuperarse del colapso de Thether (USDT), ya que las monedas estables son cruciales para las actividades de préstamo y comercio de criptomonedas. Proporcionan liquidez a traders individuales, exchanges y creadores de mercado, tanto en exchanges centralizados como en redes de finanzas descentralizadas, o DeFi. Así, gran parte del volumen diario en el comercio de criptomonedas se produce en monedas estables, según CoinMarketCap. Si los traders y los creadores de mercado no pueden contar con las monedas estables para mantener un valor fijo, como los dólares digitales de facto, todo el sistema perdería eficiencia y fluidez.

Sin entrar en las conspiraciones que van circulando sobre quién es capaz armar un corto capaz de fundirse 14 mil millones, conviene recordar que los gobiernos de todo el planeta están en una cuenta atrás para tratar de salvar su influencia económica. Una criptomoneda globalmente aceptada que de forma consistente “se erosionase menos” que las monedas fiat, les quitaría mucho poder monetario. De hecho, en el universo cripto, se obvia que a corto plazo son precisamente las stable coins las que tienen más capacidad disruptiva, ya que permiten sustituir al dólar en el comercio internacional y los pagos transfronterizos, evitando efectivamente a los bancos y dificultando que los gobiernos controlen las políticas monetarias y los flujos de capital. Por tanto, este crash les viene genial a gobiernos y entidades financieras tradicionales.

Lo que viene va a ser complicado. Aunque a largo plazo proyectos como BTC, ETH, Cardano o Solana pueden (i) sustituir gran parte de la infraestructura financiera actual (i.e, mercado del oro, sistema bancario, o pasarelas de transacciones) y (ii) tienen especial potencial para lograr un desarrollo financiero acelerado en África y Latinoamérica, en el corto, tiene toda la pinta que el ecosistema cripto va a vivir un infierno del tipo Lehman Brothers en 2008.

Publicado en Sin categoría | Deja un comentario

¿Habrá hambrunas en 2022/2023?

Han pasado ya varias semanas desde que se inició la invasión a Ucrania. Se habla mucho del destrozo a la economía Rusa pero no se está hablando del efecto de las restricciones rusas a las exportaciones en el resto del mundo, y hay que entender los efectos de segunda ronda de esta guerra económica.

El primer punto que hay que tener en cuenta es que aproximadamente el 20 % de las calorías para comida del planeta viene de cereales como el trigo (y un 25% del comercio global de trigo viene de Rusia y Ucrania, unos 11 billions). Así, sólo teniendo en cuenta este cereal, que contabiliza un 5% de las calorías totales disponibles para alimentar a la humanidad, tenemos una cantidad muy relevante del suministro calórico que o bien ya está bloqueado, o bien se acabará por perder.

Segundo dato importante: la cadena global de alimentos del planeta tiene una duración de unos 90 días, por lo que, si se dejan de plantar cosas, comenzamos a agotar suministros a los 3 meses, ya que típicamente los gobiernos tienen el equivalente a un trimestre de importaciones en reservas.

Tercer dato: aproximadamente el 50% de la producción mundial de alimentos se debe a los fertilizantes y todos los fertilizantes se hacen con nitrógeno, fósforo o potasio. Da la casualidad que Rusia es un agente clave de todos ellos, de forma directa o indirecta. El nitrógeno se produce, sobre todo, con gas natural (que se ha hecho un x 3 en precio). El 10% del fósforo también viene de Rusia y como se ve en el gráfico abajo, Rusia también es la 2da exportadora de potasio del planeta.

Ahora mismo, el precio de los fertilizantes se ha disparado, y está entre 3 y 5 veces más caro que hace unos meses (según el fertilizante). El efecto de segunda ronda de esta subida de precios en los fertilizantes es que los granjeros de todo el planeta, que tienen que tomar ahora la decisión de lo que se cosecha o no, se verán obligados a recortar drásticamente los acres utilizados para la producción. Esto hará que el suministro de comida caiga todavía más.

Por otro lado, cuando se vea escasez, salgan los reports de acres usados, los traders de commodities acapararán, lo que provocará más escasez y aumentará los precios todavía más (dinámica de mercado 101).

Aunque lo que está pasando en Ucrania es un desastre humanitario, el verdadero problema que viene, es que como respuesta a las sanciones que les impusimos; Rusia hace un par de semanas decidió suspender las exportaciones de fósforo y potasio (entre otras cosas) durante todo 2022. Por lo que no sólo se va a hundir esta estación de cultivo sino que posiblemente la siguiente también se vea afectada. Recordemos, en un contexto en el que el suministro global de alimento cubre unos 90 días.

Resumiendo, las reservas de alimentos se van a ir agotando, y no está nada claro que los fertilizantes acaben llegando a donde tienen que llegar para producir los alimentos necesarios a nivel global durante 2022 y 2023 para que la gente coma.

Ojalá me equivoque, pero si no se cumplen estas tres condiciones:

1 Rusia re-abre exportaciones de fertilizantes

2 El precio del gas natural vuelve a los niveles del verano de 2021

3 Se salva la estación de cultivos de primavera

A finales de 2022 y durante 2023, fácilmente vamos a ver una hambruna que afectará > 200 millones de personas (un 2-3% de la población mundial, posiblemente localizada en los países más pobres con menos capacidad de ir al mercado global y acaparar; algo que ya sucedió con las vacunas). Esto se va a solapar en lugares en los que ya hay un déficit estructural de calorías y por experiencia, sabemos que las hambrunas provocan guerras con el tiempo. Se ha abierto un ciclo potencialmente muy peligroso.

Links de interés:

https://www.nbcnews.com/science/environment/first-drought-now-war-global-wheat-supplies-peril-rcna19298

https://www.agweb.com/news/policy/politics/if-you-think-fertilizer-prices-are-bad-now-heres-why-china-could-make

https://www.agriculture.com/news/business/skyrocketing-fertilizer-prices-gouge-farmer-profits-groups-blame-consolidation

https://www.marketwatch.com/investing/future/cu22

https://agupubs.onlinelibrary.wiley.com/doi/full/10.1002/2014EF000250

Publicado en Sin categoría | Etiquetado , , , | 5 comentarios

El escenario central para las Navidades con la variante Ómicron

La difusión de la variante Ómicron del COVID-19, es uno de los temas más en boca de la población española por estas fechas y está suponiendo un grave trastorno en los planes de muchas familias. Conviene pues poner números a lo que se puede esperar para estas Navidades. Para ello, en este post se realiza una estimación de la letalidad actual y se pronostican las infecciones hasta el 8 de enero.

Contexto

En este otro post (de noviembre de 2020), ya comentamos que los datos y estadísticas oficiales de infecciones y defunciones no coincidían con las estimaciones más plausibles. Esto se debía a los problemas de subnotificación de casos. Asumiendo la estimación global de consenso de una letalidad promedio del 1.25% durante la primera ola el pico diario de nuevos casos el 26 de Marzo de 2020 fue del entorno de unos 143 mil nuevos infectados. Esta cifra es muy superior a los 9600 que da el Instituto Carlos III.

Figura 1: Infecciones reales vs infecciones estadísticas oficiales (13 Marzo – Noviembre 2020)

En cualquier caso, ya sea que se utilicen los datos oficiales o los corregidos, si se si se normalizan los datos de infecciones y muertes entre 0 y 1 (de modo que 1 es el máximo y 0 es el mínimo) puede observarse la descorrelación creciente entre casos y muertes, que se acelera a partir de Marzo de 2021.

Figura 2 : Histórico de infecciones y defunciones (datos oficiales)

Estimación de la letalidad

Ahora bien, ¿Cuál es la letalidad actual del COVID-19? ¿Cómo se traduce esa descorrelación en letalidad? Para responder a esta cuestión clave para construir un escenario para la Ómicron, se han estimado varios modelos de defunciones con parámetros variantes en el tiempo, de modo que es posible ver como ha evolucionado el efecto de las infecciones en la letalidad. En las Figuras 3 y 4 se muestran los resultados de la estimación de la evolución a lo largo del tiempo tanto de (i) la elasticidad defunciones-infecciones como (ii) del efecto absoluto de las infecciones en términos porcentuales.

Figura 3: Estimaciones de la elasticidad de defunciones-infecciones (promedio de modelos entre t+10 y t+14)
Figura 4: Efecto de las infecciones en las defunciones (promedio de modelos entre t+10 y t+14)

La Figura 3 muestra como hace 1 año y medio, un aumento del 1% de los casos provocaba un aumento de entre el 0.8 y el 1% de las muertes. En Marzo de 2021 se produjo una caída abrupta pasando del 0.8 al 0.15-0.2% y desde verano ha ido repuntando al alza. Ahora un aumento del 1% sólo provoca un aumento del 0.37%. Estas cifras son consistentes con la creciente descorrelación entre infecciones y letalidad.

Por otro lado, la información de la Figura 4 es especialmente importante, ya que nos dice que en términos absolutos hemos pasado de una situación inicial en la que 1000 infecciones se traducían en 20-25 muertos a los 10-15 días siguientes, a otra en la que 1000 infecciones sólo provocan unos 1.5-2 muertos.  Otra manera de ver por donde se sitúa la letalidad actual es utilizar la crude fatality rate (CFR) ingenua, que para el último mes nos da una tasa de letalidad del 0.16%. Por tanto, ahora mismo es muy improbable que la letalidad de Ómicron en España supere la cota del 0.15%.

Pronósticos de infecciones

Por otro lado, en la Tabla 1 se resume la trayectoria mediana de las infecciones pronosticadas mediante el Renewal Equation Time-Varying Parameter Model (RE-TVPM) de Abott et al. (2020), junto con las bandas de confianza del 10%, 25%, 75% y 90% respectivamente.  La trayectoria futura más probable sugiere que las infecciones diarias se disparen hasta alcanzar una media móvil de 7 días de 201 mil casos para el día 8 de enero de 2022. Sólo hay un 10% de probabilidad de caigan por debajo de 32 mil y un 10% de que superen los 1.07 millones. La región central de la distribución de probabilidad sugiere que lo más normal sería que en el pico de Navidades, estemos con un promedio de casos diarios de unos 110-280 mil casos. Tras todas las navidades, se espera que el total de casos aumente en 1.75 [0.5, 6.1] millones. Esto sugiere que en el escenario central se batirá el récord de 143 mil casos de Marzo de 2020 y que la incidencia acumulada a 14 días podría llegar a los 3 mil casos por cada 100 mil habitantes a final de navidades.

Nota: el modelo utiliza como input la media móvil de 7 días para suavizar el ruido administrativo observado en los datos diarios, por lo que el pronóstico no se debe interpretar como el número de casos diarios sino de la media móvil de 7 días.

Pronósticos de defunciones

No creo que los sistemas de conteo sean capaces de llegar a reportar estas cifras por la saturación de los laboratorios y el calendario festivo en el que estamos. Lo más probable es que muchos casos quedarán sin contabilizar como sucedió en la primera ola.

La cuestión es ¿Hay que preocuparse por la avalancha de casos que viene? Lo cierto es que, sin volverse locos, sí que conviene ser muy prudentes. Si usamos una estimación ligeramente superior a la que hemos estimado en la Figura 4 en el peor de los días (un 0.2%), no debería obtenerse un promedio a 7 días por encima de los 500 muertos y si usamos una letalidad del 0.15%, que es más plausible, no deberíamos irnos a un promedio semanal de más de 300 muertos diarios. Esta información se sintetiza en la Tabla 2. Un pico de defunciones alrededor de los 300 fallecidos sería una cifra bastante mala que no se veía desde el Febrero de 2021, pero está muy lejos de las 1500-2000 defunciones reales de la primera ola de 2020. Por otro lado, el acumulado de defunciones durante estas Navidades no debería exceder las 2600 [806,9154]. Supongo que para las autoridades sanitarias son cifras asumibles o no lo han visto venir.

Nota: Esta estimación depende fuertemente del supuesto de letalidadl del 0.15%. Los datos deben interpretarse no como el número de defunciones diarias sino como la media móvil de 7 días (o el promedio semanal de muertos).

Para finalizar, creo que conviene matizar que estas predicciones tienen un margen de error y la situación finalmente podría ser algo mejor si:

(1) la estimación de letalidad estuviese sesgada al alza

(2) el modelo sobreestimase las infecciones

(3) si tanto (1) como (2) se diesen a la vez.

Por un lado, la tendencia a la baja en letalidad observada a lo largo del tiempo es clara, y la evidencia que tenemos del efecto de Ómicron en Dinamarca y en Sudáfrica no es mala del todo. En estos países el efecto de Ómicron en defunciones desde que arrancó la ola hasta las fechas del pico es el de multiplicar las muertes por un factor de 3-4. Esto para España implicaría un máximo de 200-250 muertos diarios, pero si el diferencial de vacunación que tenemos de ventaja se hace notar, el saldo podría ser inferior.

Otro punto en esta línea es que los errores más abultados en el pronóstico de epidemias suelen ocurrir precisamente en el punto de inflexión de la curva en el que se pasa de crecer, a estabilizarse, y posteriormente decrecer.  Esto sucede porque conforme el riesgo de infección aumenta, la gente se anticipa adaptando su comportamiento reduciendo la movilidad y el número de interacciones sociales. Es el tipo de proceso mediante el cual un observador de una tendencia acaba afectando a la misma (de hecho, esto es lo que hace imposible predecir con precisión el precio de una acción en la bolsa).

Resumiendo, el escenario central que habría que barajar es de un pico cercano a los 201 mil infectados diarios y un total de 1.75 millones de infecciones en los próximos 14 días. En términos de defunciones, no deberíamos superar las 300 defunciones diarias ni acumular más de 2600 fallecidos durante la primera quincena enero. Mi opinión, basándome en lo que ya sabemos sobre otras olas de Ómicron en otros países, es que es más probable que estos números finalmente se queden ligeramente por encima de lo que sucederá.  

Con esta información, valoren y tomen sus decisiones para estas fechas.

—————————————————————————————————————————–

Nota 1: Para estimar la letalidad time-varying se emplea un modelo auto-regresivo con parámetros variables en el tiempo y el Kalman filter. La especificación es dinámica en tanto que además de incluir una constante y las infecciones en t-h, también se controla por las defunciones en t-h. Los datos reportados se obtienen de promediar las estimaciones de modelos utilizando h = 10, …, 15

Nota 2: Para predecir las infecciones, se utiliza el RE-TVP model de Abott et al. (2020). Se ha supuesto que tanto el generation time como el incubation period son ligeramente más cortos que los estimados por Ganyani y Lauer.

Los códigos computacionales en Matlab y R están disponibles a petición.

Publicado en covid-19 | Deja un comentario

Antes de nada decir que este artículo es continuación del anterior sobre el mismo tema titulado Análisis de viabilidad de un mix eléctrico 90% renovable para 2030/35 y 100% para 2040. Este que nos ocupa es básicamente una evolución del modelo que habíamos desarrollado solo que más completo que el anterior (la versión 1). Probaremos esta vez, poniendo ya cifras concretas, que las necesidades de almacenamiento son mucho más bajas de lo que se podría pensar una vez que sobregeneramos. También arrojaremos estimaciones de los costes para los diferentes escenarios. Con este trabajo podemos ahora sí asegurar que la factibilidad en el medio plazo de alcanzar el 100% renovable con la tecnología actual es absolutamente factible y también la opción más económica.

Repasemos primero cuales son los añadidos y mejoras que, como veréis, son bastantes y algunas importantes.

Qué ha cambiado

  • Se ha mejorado la precisión de los resultados reduciendo los errores de redondeo que presentaban algunas operaciones intermedias.
  • Se amplió el histórico de datos todo lo posible. Ahora nos remontamos a junio del 2015 que es el periodo más antiguo sobre el cual la base de datos de ESIOS nos ofrece datos con granularidad horaria para las tecnologías de generación de fuentes renovables. Esto nos permite diluir un poco más los efectos de anomalías como la bajada de la demanda durante 2020 e introducir otras nuevas dando un mayor valor estadístico a los resultados. En total, 56573 horas registradas.
  • Se limpiaron los datos de la generación fotovoltaica transformando a valor 0 todas las horas nocturnas. Esto se hizo porque se detectó que REE daba producción nocturna debido supuestamente a errores de medición que se amplificaban al aplicar nuestras correcciones para homogeneizar los datos. Al ponerlos a 0 evitamos que esos errores crezcan ya que cualquier producto por cero sigue siendo nulo y también obtenemos unos datos más razonables sobre las horas a las que realmente generaría la fotovoltaica.
  • Se cambia la escala de la fotovoltaica (el eje Y) en la matriz 9×9 de escenarios para equilibrarla en potencia instalada respecto la de la eólica (eje X). Fotovoltaica ahora irá del escenarios 1X al 9X. Esto es porque dado que tenemos instalada aproximadamente la mitad de eólica que de fotovoltaica un 2X en FV equivale aproximadamente a un 1.5X en eólica.
  • Se introduce el almacenamiento. Hemos tenido en cuenta de añadirlo en tres tipologías distintas, baterías, bombeo e hidrógeno con las peculiaridades de cada una. Más adelante las explicaremos en detalle.
  • Se introducen los costes partiendo de los costes de capital por MW a precio actual.
  • Se ha implementado la optimización mediante algoritmos genéticos incluida en la librería de Python SciPy.

Metodología

A todo lo dicho en el artículo anterior aquí explicaré cómo hemos añadido el resto de elementos del modelo, básicamente almacenamiento y costes. Para el almacenamiento, como hemos dicho más arriba, hemos optado por desglosarlo en tres componentes en función de la duración del mismo. A la hora de modelizarlo hemos supuesto que cargarían durante las horas de exceso de Eólica + Solar y descargarían en las horas de déficit. Calculado este con esta ecuación tan sencilla:

Déficit energético = Demanda – Solar – Eólica

La prelación con la que se recurre a cada tecnología de almacenamiento viene determinada en el modelo por su duración y eficiencia. Así, suponemos que los sistemas más eficientes y de menor duración entran los primeros. Y el hidrógeno, entraría el último. La manera de conjugar la hidráulica con todo esto la resolveremos estableciendo umbrales de entrada para las tecnologías de LDES y de H2 de tal manera que dejen hueco a la hidráulica antes de entrar reservándose así solo para las horas en donde sean estrictamente necesarias.

Baterías de litio

Las baterías de litio son los sistemas de almacenamiento de mayor densidad volumétrica, mayor velocidad de respuesta y mayor eficiencia. Con las baterías de litio suele ser asequible añadir potencia pero costoso añadir más capacidad energética ya que no va desacoplada de la potencia. Esto hace que típicamente sean baterías de corta duración (máximo 4 horas). Además de eso está el hecho de que sufren degradación por uso. Suelen preverse unos 3500 ciclos de vida media. Suponiendo que gastamos un ciclo cada día esto serían unos 10 años antes de tenerlas que cambiar por otras nuevas. Si bien podrían durar más años teniendo en cuenta que pierden capacidad a razón de un 2.6% al año según LAZARD. Al final dependería mucho de cada proyecto pero difícilmente podría alargárseles la vida más allá de los 20 años con una capacidad ya de por lo menos la mitad que la inicial. Precisamente para alargarles al máximo esa vida es por lo que los módulos de baterías no usan toda su capacidad disponible sino que operan típicamente con una profundidad de descarga de máximo el 90%. Como curiosidad técnica añadir que cada vez es más frecuente ver proyectos de volantes de inercia y supercondensadores para ocuparse de estas fluctuaciones de alta frecuencia, sistemas con capacidad de más ciclos de uso pero menor densidad.

  • Ventajas
    1. Modularidad
    2. Escalabilidad en potencia (MW)
    3. Eficiencia (90%)
    4. Alta densidad volumétrica
    5. Velocidad de respuesta (gradiente de potencia)
    6. Se beneficiarán de la economía de escala dedicada a los BEV
  • Desventajas
    1. Corta duración (4h máximo)
    2. Sufren degradación (3500 ciclos de vida)
    3. No conviene usarlas al límite de su capacidad
    4. Riesgo de sobrecalentamiento e incendio
    5. Capacidad acoplada a la potencia

En el modelo hemos tenido en cuenta que su eficiencia era del 90% y que su duración era de 4 horas, es decir que a cada MW de potencia le corresponderían 4MWh de capacidad (son los valores de referencia de la industria ahora mismo). La degradación no ha sido considerada en sí misma pero en ulteriores versiones podría incorporarse un estudio de costes a largo plazo en el que la necesidad periódica de recambiar el parque de baterías de litio tuviese que estar contemplado. Finalmente, asumimos además que dado que son la tecnología con mayor velocidad de respuesta y mayor eficiencia de todas sería la que entraría primero a cubrir los déficits, antes incluso que la hidráulica.

  • Parámetros
    1. Potencia [MW]
    2. Capacidad = 4 * Potencia (4h) [MWh]
    3. Eficiencia = 0.90
    4. SOC (State of Charge) [MWh]

Bombeo hidráulico y otros LDES

Como ya comentamos actualmente el sistema peninsular cuenta con unos 4GW de bombeo hidráulico (3GW en ciclo cerrado). Y se están construyendo y planificando algunos más para esta década. El resto de tecnologías LDES (long duration energy storage) tienen mercados aún reducidos pero se espera que algunas de ellas experimenten grandes crecimientos los próximos años. Una de las más prometedoras por su modularidad serían las baterías de flujo en sus diversas variantes (de Vanadio, Zinc o Hierro). Y es que al final, el bombeo hidráulico está muy sujeto a la orografía y disponibilidad de pantanos. En el caso del sistema ibérico tenemos la suerte de contar con un buen potencial para el bombeo reversible y se va a explotar, pero otros países no tendrán tanta suerte lo que dará oportunidades a que se desarrollen diferentes alternativas.

  • Ventajas
    1. Escalabilidad en capacidad (MWh)
    2. Larga duración (de 10h a 150h según proyecto y tecnología)
    3. Sin degradación, ciclo de vida muy largo
    4. Profundidad de descarga del 100%
    5. Sin riesgos de sobrecalentamiento
    6. Potencia y capacidad desacopladas
  • Desventajas
    1. Tecnologías aún inmaduras y caras (a excepción del bombeo)
    2. Eficiencia menor en un rango de 0.65 a 0.80 según tecnología
    3. Baja densidad volumétrica, ocupan más espacio
    4. Baja modularidad (a excepción de las baterías de flujo)

En el LDES la heterogeneidad de proyectos y tecnologías es muy alta, incluso solo en los bombeos hay algunos de una capacidad enorme y otros más pequeños. Aún así, por simplicidad hemos decidido estandarizar el almacenamiento a largo plazo en una duración de 10 horas. Si bien teóricamente, para otros ejercicios podríamos considerar duraciones mayores. Respecto a la eficiencia y teniendo en cuenta que la mayoría de nuestros sistemas LDES serán bombeo hemos decidido presuponer una eficiencia de trabajo del 75%. Por último, en aras de conjugar la hidráulica y ser capaces de estimar correctamente hasta dónde se puede descarbonizar el mix hemos introducido otro parámetro. Y esto es porque hemos supuesto que la hidráulica entrará antes que las tecnologías LDES y que el H2. Esa es la única manera de mantener alto el aprovechamiento hidráulico y que el modelo no nos de a instalar almacenamiento de más. Un umbral de 5.000MW por ejemplo significaría que los LDES solo verterían para cubrir los déficits superiores a ese umbral presuponiendo que del resto se encargaría la hidráulica. Por simplificación fijaremos el umbral como la potencia tope de la hidráulica descontados los bombeos y aplicado el factor de capacidad (8400GW).

  • Parámetros
    1. Potencia [MW] > = 4.000 MW (4GW los suponemos ya construidos)
    2. Capacidad = 10 * Potencia (10h) [MWh]
    3. Eficiencia = 0.75
    4. Umbral de entrada = (17000 – 3000) * 0.6 = 8400 [MW]
    5. SOC [MWh]

Hidrógeno electrolítico

La introducción del hidrógeno era una opción a tener en cuenta si se quería lograr acercarse a niveles de prácticamente el 100%, como vimos en el ejercicio del artículo anterior. Esos eventos infrecuentes solo pueden ser cubiertos o bien con gas, con mucha hidráulica si se tiene disponible, con interconexión o con tecnologías que permitan una gran capacidad de almacenamiento. Y ese sería el caso del hidrógeno de origen electrolítico. Una característica a tener en cuenta aquí es que la potencia está desacoplada entre potencia de carga y potencia de descarga que podrían tener valores bien distintos. Lo normal y dado que el H2 estaría reservado para situaciones infrecuentes es que la potencia instalada de carga (los electrolizadores en este caso) fuese sustancialmente inferior a la de descarga (tal vez ciclos combinados adaptados o células de combustible).

  • Ventajas
    1. Gran capacidad de almacenamiento
    2. Posibilidad de exportarlo e importarlo por barco o gaseoductos
  • Desventajas
    1. Muy baja eficiencia 0.35 en todo el ciclo. (0.65 la electrólisis y 0.55 la combustión)
    2. Muy baja densidad volumétrica a presión atmosférica
  • Parámetros
    1. Potencia de carga [MW]
    2. Potencia de descarga [MW]
    3. Capacidad [MWh]
    4. Eficiencia = 0.35
    5. Umbral de entrada = 8400 [MW]
    6. SOC [MWh]

Incorporando los costes

Para los costes hemos echado mano de varias fuentes, principalmente los informes de LAZARD, también informes sobre costes de bombeo así como los precios actuales de mercado de los Megapacks de Tesla. Los valores escogidos para incluir en el modelo al final han sido los siguientes:

  • Fotovoltaica: 875 $/kW
  • Eólica terrestre: 1675 $/kW
  • Eólica marina: 2420 $/kW (corregido por su mayor factor de potencia)
  • Baterías de litio: 1100 $/kW
  • Bombeo hidráulico: 2000 $/kW*
  • Electrolizadores: 1000 $/kW*
  • Almacenamiento de H2: 600 $/kWh *
  • Ciclos combinados: 500 $/kW (los suponemos ya construidos)**

* Estos precios son meras estimaciones basadas en lo que hemos visto en varias referencias. Sobre los bombeos no existe una estandarización de los costes en los proyectos, en el resto de tecnologías LDES los costes aún están poco establecidos más allá de lo que promete la industria. Con los electrolizadores y los depósitos para almacenar H2 ocurre lo mismo, apenas hay proyectos aún a suficiente escala. Así que los costes introducidos son orientativos, están fundamentados en costes actuales pero son imprecisos.

** Hemos presupuesto que se priorizaría adaptar nuestros ciclos combinados para el uso y despache del hidrógeno electrolizado. Si bien lo normal es que requiera de inversiones para adaptarlos aquí no hemos encontrado ninguna fuente que nos indique cual sería el coste de esos proyectos así que la cifra que damos es un valor basado en el supuesto de que el grueso de la inversión (las plantas de CC) ya está hecha.

Resultados

El modelo básico

En primer lugar vamos a recalcular los resultados base teniendo en cuenta tan solo eólica , solar e hidráulica sin tener en cuenta los bombeos. Todos estos resultados hay que tener en cuenta que son a tecnología actual pero a su vez a demanda actual. Es previsible que tanto los costes como los factores de capacidad irán mejorando con el tiempo y a su vez es muy posible que la demanda crezca con lo que los valores hay que tomarlos como estimaciones cercanas. Así elegimos como valores iniciales (1X) para cada tecnología:

  • Eólica: 28 GW
  • Hidráulica: 8.4 GW (resultado de restar la potencia de los bombeos y aplicar una reducción del 40%)
  • Fotovoltaica 13.8 GW
  • Termosolar: 2.3 GW
Hemos equilibrado en términos de potencia instalada ambos ejes. En España un 2X en eólica equivale aproximadamente a un 3X en fotovoltaica en términos de MW de potencia instalados.

Añadiendo los bombeos hidráulicos ya instalados

Para poder introducir la potencia de bombeo de la que ya disponemos hemos tenido primero que considerar los proyectos que tenemos. Hemos seleccionado solamente los de ciclo cerrado y semi-cerrado lo que nos da un total de 6 complejos con unos 3GW de potencia reversible agregada y 35GWh de capacidad. Por mantener el estándar en LDES que nos habíamos fijado redondearemos a la baja a unas 10 horas de duración (30GWh) y por simplicidad del modelo agruparemos todos los proyectos en uno solo de 3GW/30GWh.

Dado que REE no separa la hidráulica del bombeo en los datos de generación eléctrica vamos a tener que hacerlo nosotros. De manera que para el modelo reducimos la potencia instalada hidráulica en 3GW, pasando así de 17 a 14GW que con el 60% del factor de potencia aplicado se quedan en unos 8.4GW disponibles en cada momento. Hay que decir que el bombeo actualmente está infrautilizado ya que nuestro mix realmente no genera excedentes aún. Eso cambiará en los próximos años a medida que se instale más eólica y fotovoltaica. Así pues, una vez introducimos el bombeo la cosa queda tal que así:

Así queda el cuadro cuando tenemos en cuenta la hidráulica y consideramos también el bombeo que ya tenemos instalado. Vemos cómo a partir del escenario 4X/3X ya podríamos estar en un escenario de 90% renovable.

Midiendo el aprovechamiento de los excedentes

En esta tabla vemos como gracias a los bombeos estos pueden absorber los excedentes de doblar la potencia fotovoltaica o incrementar la eólica en un 50% pero no mucho más allá. (Excedentes medidos en % de horas respecto al total)
Si medimos los excedentes en % de MWh respecto al total aquí la cosa es algo más favorable y vemos como el bombeo puede absorber el grueso de los excedentes que se van a empezar a generar a corto plazo, tenemos margen y tiempo para adaptarnos. En el caso más extremo 9X/5X los excedentes llegan a superar el consumo total.

Notar que estos excedentes son suponiendo que no tenemos potencia «inflexible». Está procede fundamentalmente de la nuclear y de la cogeneración. Así que a medida que crezca el share renovable habrá que ir reduciendo esas dos fuentes. Aún así será difícil hacerlo al mismo ritmo por lo que los excedentes se acumularán antes en mayor medida probablemente lo que obligará a adelantar cierres para acompasar el crecimiento renovable si este se acelera.

Y aquí el gráfico del ratio entre la energía generada de origen renovable (solar + eólica + hidráulica) respecto al total de la demanda.

Validación del modelo y escenarios futuros

El primer escenario que exploraremos será uno muy parecido al que presenta el propio escenario objetivo del PNIEC para valorar la verosimilitud de sus cifras a la vez que validar nuestro modelo. Los técnicos del ministerio estiman un crecimiento lineal tanto para eólica como fotovoltaica y también un crecimiento de la demanda del 7% para 2030. Respecto al bombeo hidráulico, actualmente hay proyectados unos 3 GW adicionales a realizar en la presente década, lo que significa un incremento de un 50% cada lustro respecto a la potencia actual. A más largo plazo se ha estimado que se podría llegar a un tope de entre 10 a 15 GW.

El PNIEC, además, estima un desembolso total en la presente década de 236.000 M€ entre inversiones públicas y privadas. No solo en instalar generación y almacenamiento sino también en mejoras de eficiencia energética y en las redes de transporte de electricidad no contempladas en este análisis. De ese montante se concreta que 125.000 de los cuales irán dedicados a renovables y redes, la mayoría inversión privada. De ahí que nuestra estimación de costes, solo basada en las instalaciones sirva como cota mínima orientativa.

%REól.FVBat.BombeoDemandaCoste*
202145%1.0X1X0.01.0X1.00X
202561%1.4X2X0.71.5X1.03X30
203074%**1.8X3X2.52.0X1.07X62***
203584%2.2X4X5.02.5X1.10X94
204091%2.6X5X8.03.0X1.14X127
Crecimientos según escenario objetivo del PNIEC. *Coste acumulado sin tener en cuenta ninguna reducción de precios (en miles de millones de euros). **El PNIEC prevé alcanzar un 74% para 2030, con un 73.8% nuestro modelo lo clava. ***Nuestra cifra se queda a la mitad de los 125 debido a que seguro, ellos contemplan otros gastos como mejoras de la red.
% RenovableEól.FVBat.BombeoDemanda
202563%1.5X2X0.71.5X1.03X
203082%2.0X4X2.52.0X1.07X
203592%2.5X6X5.02.5X1.10X
204096%3.0X7X8.03.0X1.14X
205099%5.0X10X10.04.0X1.30X
Escenario ambicioso con aceleración tanto en el crecimiento fotovoltaico como en el eólico
% REól.FVBat.*Bom.H2*Demanda
202563%1.5X2X0.71.5X01.03X
203082%2.0X4X2.52.0X0.5/1001.07X
203592%2.5X6X5.02.5X1.0/2001.10X
204097%3.0X7X8.03.0X1.5/5001.14X
205099%5.0X10X10.04.0X3/10001.30X
Escenario ambicioso añadiendo hidrógeno. *Baterías [GW] de 4h de duración. Hidrogeno [GW/GWh].

En el escenario ambicioso se podría decir que para 2035 ya estaríamos en disposición de acercarnos al 100% renovable, si ampliásemos la interconexión. Y las tecnologías no-flexibles, nuclear y cogeneración tendrían que cerrar pues no habría demasiado hueco para ellas. Otro aspecto observado bastante relevante es que el hidrógeno no aportaría una mejora significativa. Especialmente si se puede desplegar buena potencia tanto en bombeo como en baterías, tecnologías ambas más eficientes que el H2. En mi opinión el hidrógeno solo tendría sentido para atender eventos infrecuentes pero para ese menester parece merecer mucho más la pena invertir en reforzar la interconexión con otros países antes que hacer un ingente dispendio en una infraestructura que se usará con muy poca frecuencia.

En este gráfico vemos como tanto las baterías de 4h como el bombeo y LDES de +10h se usaría intensamente mientras que el H2 solo jugaría un papel significativo en contados eventos manteniéndose la reserva casi al máximo la mayor parte del tiempo.
Evolución del SOC de los sistemas de almacenamiento establecidos en el escenario objetivo 2030 del PNIEC. En este escenario, mucho más modesto que el anterior, las baterías estén más tiempo con bajo nivel de carga que con alto.

La curva de coste

Una vez tenemos un modelo validado. Una de las cosas más interesantes a hacer es evaluar la curva de costes. Esto es, para una proporción dada de potencia eólica y solar ir viendo cuanto varía el coste del sistema para lograr un 100% renovable. Para nuestro ejercicio hemos escogido tres escenarios distintos. Uno en el que instalamos potencia eólica y solar al 50% otro en el que la relación es 2/3 eólica y 1/3 solar que sería el más parecido a nuestra situación actual por ahora y otro de 2/3 solar y 1/3 eólica. Notar que 1GW de potencia solar no genera lo mismo que 1GW de potencia eólica debido al mayor factor de capacidad de esta última. En concreto el GW eólico genera en España 1.3 veces más energía que el fotovoltaico. Todos los escenarios se han calculado sobre una demanda un 10% superior a la actual.

La curva de costes claramente no es simétrica y nos indica que és menos costoso pasarse de sobregeneración que de almacenamiento. Por debajo de 1.4X un mix dominante en eólica como el nuestro sería el más indicado. De los tres escenarios considerados vemos que la región de menor coste se encuentra en el mix equilibrado alrededor de 1.5X. Por encima de 1.7X el mix con dominancia solar sería el mejor.

Otra conclusión interesante es que, según el modelo, descarbonizar al completo el mix eléctrico supondría solo en instalación de eólica, solar y almacenamiento un desembolso de uns 220.000 millones de € a costes actuales. Aquí no tengo en cuenta otras inversiones necesarias en las mejoras de la red y las interconexiones. Naturalmente lo normal es que muchas de las tecnologías que se van a usar sigan reduciendo sus costes mientras se despliega el sistema por lo que estas cifras podrían ser en realidad más bajas al final.

Añadir que para llegar a un mix que solo utilice renovables no hace realmente falta llegar al 100%, nos bastaría llegar por ejemplo al 99% y suplir el restante con interconexión que para eso la tenemos. Hemos consultado cuánto es el flujo de interconexión en nuestro histórico de datos para los tres principales países a los que estamos conectados, Portugal, Francia y Marruecos y es el siguiente.

FranciaPortugalMarruecosTOTAL
Importación5.2%2,8%0,1%8,1%
Exportación– 1,5%– 2,8%– 1,2%– 5,5%

Como vemos, solo con estas interconexiones ya tenemos un margen importante para poder ajustar pequeños huecos que se puedan producir en un rango de un 5% hacia arriba o abajo. En el futuro, más y mejores interconexiones podrían incrementar ese rango y conectarnos con países más alejados lo que redundaría en una mayor diversificación y descorrelación con todos nuestros vecinos.

Conclusiones

Hemos validado el modelo al obtener el mismo resultado para el escenario objetivo a 2030 recogido en el PNIEC lo que nos induce a pensar que el modelo es en esencia una simplificación bastante correcta.

Para el caso de España parece a priori, según las curvas de costes, que un mix renovable obligaría a instalar un sistema que sobreprodujese en un rango de un 50 a un 70% por encima de la demanda. Siendo más rentable a largo seguir poniendo solar que eólica. Pero esto se ha calculado para cubrir en más del 99,5% de las horas con renovables. En la práctica no hará falta llegar a tanto gracias a la interconexión. Encontrando soluciones mediante algoritmos de optimización podemos ver que tan solo sobreproduciendo en un 25% ya podríamos llegar a porcentajes de cobertura muy altos, de algo más del 98%.

Solución 98.2%: 95GW FV + 78GW Eól. + 10GW BESS_4h + 20GW LDES_10h = 200MM$ / 1.26X

Solución 99.4%: 117GW FV + 92GW Eól. + 10GW BESS_4h + 20GW LDES_10h = 247MM$ / 1.49X

En cualquier caso, esta es la cifra, de 200.000 – 250.000 millones de € para descarbonizar un mix con un 10% más de demanda que el actual. Puede parecer mucho, pero hay que tener en cuenta el beneficio enorme que significaría para el sistema una vez que todas esas tecnologías estén amortizadas y produciendo a costes marginales ridículamente bajos. Nada podría competir con eso. Además de los breves plazos de despliegue y del hecho de que en principio los costes van a ir bajando durante el tiempo que dure la transición, esta no será la cifra definitiva, es solo la cifra de partida. Así, una inversión de 250MM$ a precio actual a desembolsar en 10 años sobre una tecnología que reduce su coste, por ejemplo, en un 5% anual significaría que tras esos diez años realmente nos habría costado 180MM$. Destacar la importancia de que además de bombeos haya baterías en el mix ya que estas tienen un efecto no computable en el modelo que es el de introducir una competencia adicional gracias a su modularidad. Eso lleva a aumentar la cantidad de actores que gestionan almacenamiento y a que el precio de este se ajuste por la banda baja y no como ahora que pueden arrimarlo a precios de la energía más alta.

Señalar por último que, la idea de mantener las nucleares a largo plazo será imposible, contraproducente de hecho, pues estas tienen costes marginales demasiado altos e imposibles de bajar, lo que básicamente las irá sacando del mercado. En ese sentido es Francia quien tiene el mayor problema a medio plazo y no el resto de países. Cuanta más potencia inflexible se tenga en esta transición que viene, peor. Si alguien quiere entender porqué las nucleares no podrán mantenerse abiertas por mucho tiempo, basta ver el mapa de escenarios con el % de horas no cubiertas por el mix renovable aplicando los valores de demanda y almacenamiento esperados para el escenario objetivo 2030 del PNIEC (2.5GW baterías + 6GW de bombeo).

Es impensable que una tecnología como la nuclear que requiere de una producción constante y a un precio moderadamente alto pueda ser económicamente competitiva en escenarios con tan pocos picos. Cada año será peor y, como vemos, la situación evolucionará muy rápidamente durante el presente lustro.

Fuentes

[1] Lazard’s Levelized Cost of Energy, Storage and Hydrogen

[4] Factsheet Energy Storage https://www.eesi.org/papers/view/energy-storage-2019

[5] Tesla Megapack Prices https://www.thestreet.com/tesla/news/new-tesla-megapack-details-price

[6] https://www.energy.gov/energy-storage-grand-challenge/downloads/2020-grid-energy-storage-technology-cost-and-performance

[7] https://pv-magazine-usa.com/2020/07/03/nrel-study-backs-hydrogen-for-long-duration-storage/

[8] https://elperiodicodelaenergia.com/espana-acoge-casi-la-mitad-de-los-proyectos-de-interes-comun-de-almacenamiento-para-la-ue/

[9] https://www.miteco.gob.es/images/es/notaexplicativadelborradordelpniec2021-2030_tcm30-487346.pdf

Publicado el por Víctor García | Deja un comentario

En este post vamos a analizar la posibilidad de transitar hacia un mix eléctrico 90% renovable de aquí a 2030/35 y del 100% para 2040. Algunas voces críticas han sostenido que para lograr eso habría que sobredimensionar mucho la potencia instalada e incorporar mucha capacidad de almacenamiento. Aquí trataremos de demostrar que, al menos para el caso de España es posible hacerlo sin tantos requerimientos y que si se cumplen determinados requisitos sería posible conseguirlo antes de lo que nos pensamos.

Metodología

Para realizar el análisis hemos asumido varias simplificaciones y supuestos para poder realizar una estimación aproximada razonablemente fiable.

  1. Hemos usado datos históricos de generación eléctrica con granularidad horaria desde el año 2017. Ocupamos un período de unos 5 años de históricos. Un tiempo razonable para que los diversos ciclos estacionales se hayan dado varias veces.
  2. A priori consideraremos que la demanda a satisfacer es igual a la actual. Hemos escogido hacerlo así para empezar por una cuestión de simplicidad y porque, de hecho, nuestra demanda lleva ya más de 10 años estancada. Algunos escenarios con mayor demanda eléctrica se analizarán al final. Así mismo, por simplicidad, no consideraremos variaciones en el patrón de demanda debidos al autoconsumo y a la gestión activa.
  3. Vamos a considerar únicamente un desarrollo tanto de la eólica como de la fotovoltaica pues en suma, son las dos tecnologías renovables que en los próximos años van a aportar el grueso de la potencia instalada con enorme diferencia respecto a las demás. Así, consideraremos que Termosolar e Hidráulica se mantienen con valores fijos de potencia instalada como hasta ahora.
  4. Dado que en un primer análisis vamos a tratar de ver las posibilidades de alcanzar ese 90% sin almacenamiento no vamos a considerar realmente los 4GW de bombeo que ya tenemos instalados. Eso nos permite tener un margen y pecar algo de conservadores acerca de los niveles a alcanzar.

El primer paso fue obtener de la web de la base de datos ESIOS de REE. https://www.esios.ree.es/es/analisis/1293?vis=1&start_date=25-11-2021T00%3A00&end_date=25-11-2021T23%3A50&compare_start_date=24-11-2021T00%3A00&groupby=minutes10&compare_indicators=545,544

Extraídos los datos de generación para las distintas tecnologías renovables, Eólica, Fotovoltaica, Termosolar e Hidráulica más los datos de la demanda total hicimos la siguiente manipulación de los datos. Una ventaja de tenerlos a intervalos de una hora es que la correspondencia entre MW de potencia y MWh generados durante cada hora es directa sin hacer ningún cálculo añadido.

El primer problema que encontramos es que en ese período de los últimos cinco años la potencia instalada de eólica y fotovoltaica no es constante sino que ha ido incrementándose con el tiempo, conforme se instalaban los parques. Así que los datos de potencia aportada no son homogéneos y deben normalizarse primero. Escogimos como criterio normalizarlos a potencia actual, como si todos los años desde 2017 hubiésemos tenido la misma potencia instalada que ahora. Así nos servimos de los valores de potencia instalada que REE da mes a mes para cada tecnología para ponderar la potencia generada teniendo en cuenta la que tenemos instalada ahora (a noviembre de 2021). Esto es:

  1. Eólica: 28.0 GW
  2. Hidráulica: 17.1 GW
  3. Fotovoltaica: 13.8 GW
  4. Termosolar: 2.3 GW

Una vez tenemos los datos normalizados a potencia actual trataremos primero de establecer la contribución de la solar y eólica sin tener en cuenta la hidráulica dado que esta última es gestionable, la incorporaremos al final con otras consideraciones.

En ese periodo nos sale que solar y eólica aportan actualmente en promedio un 34% de la electricidad generada. Un 45% si se añade la hidráulica. Este es el peso de las renovables en nuestro mix actual y queremos ver qué pasaría si seguimos aumentando eólica y solar como hasta ahora. Para ello calcularemos la diferencia entre la demanda y la electricidad generada por solar y eólica suponiendo que los excedentes generados se recortan (es decir se tiran) o se exportan a otras redes extranjeras. En la realidad lo normal sería además tener instalado algo de almacenamiento o que la demanda también se adaptase algo para aprovechar mejor esos excedentes y los precios bajos que producirían pero para empezar vamos a suponer que tal adaptación no ocurre y no aprovechamos los excedentes.


Resultados

Para representar las conclusiones construiremos una matriz 9×9 que contendrá 81 escenarios distintos. En el eje de las X colocaremos múltiplos de la potencia eólica actual a intervalos de 0.5 y para la fotovoltaica haremos lo mismo en el eje de las Y.

Obsérvese como la ruta más rápida para descarbonizar al máximo sin almacenamiento es instalando fotovoltaica y eólica en paralelo, manteniendo un crecimiento parejo de ambas más o menos, como era de prever. Y es que, como sabemos, la eólica y la fotovoltaica son tecnologías bastante complementarias, cuando hay mucho sol suele haber poco viento y viceversa. Notar que esto no muestra el share renovable total ya que faltaría aún por incluir la hidráulica.
Aquí podemos ver como estamos relativamente cerca de empezar a tener un buen puñado de horas al año en las cuales la electricidad generada por eólica y solar excederá el total de la demanda. Impresiona ver que con un 50% de sobregeneración renovable ya tendríamos excedentes por encima del 70% de las horas del año.
Por último podemos ver la cantidad de electricidad generada en términos absolutos respecto a la demanda. En el caso más extremo del análisis, teniendo cinco veces más potencia instalada tanto de eólica como de fotovoltaica generaríamos 1,6 veces la demanda actual. Si bien no podríamos aprovecharla toda sin almacenamiento e interconexión.

Estos resultados ya nos permiten ver que aún tenemos cierto margen antes de generar demasiados excedentes. Si bien en el caso real de nuestro mix los excedentes aparecerán antes incluso de lo que se estima en el cuadro. El motivo es nuestra potencia nuclear instalada. El plan actual de cierre nuclear prevé que este sea escalonado entre 2027 el primer reactor y 2035 el último. Es un plazo bastante generoso y que a mi entender se tendrá que acabar acortando ante la rápida expansión de las renovables. Porque el problema de la nuclear es que tiene que producir a potencia constante todos los días para funcionar a buen rendimiento tanto desde un punto de vista técnico como económico. Siendo así, lo que ocurrirá es que a medida que empiecen a surgir excedentes, las nucleares simplemente estorbarán y habrá que acelerar su cierre. El gas, sin embargo tiene la ventaja de su flexibilidad y podrá desconectarse completamente durante las horas de excedentes renovables. Esa flexibilidad, además de la razonable eficiencia de los ciclos combinados (55%) es la ventaja que hará que el gas sea la última fuente en salir del mix. Costará bastante de eliminar del todo, como veremos, aunque sí irá perdiendo peso muy rápidamente conforme crezcan solar y eólica.

Añadiendo la hidráulica al análisis

¿Y la hidráulica? Sí, nos hemos dejado la hidráulica para el final por varias razones. La primera es que es una tecnología sobre la que no se esperan más incrementos de potencia. Solo crecerá por lo que aporten los nuevos bombeos que se van a instalar pero ya hemos dicho que no van a ser objeto de consideración por ahora. Y la segunda y más importante es que es gestionable y eso es una gran diferencia. En realidad la hidráulica es generación y acumulación a la vez. Porque puede decidir a qué horas producir y cuando no, y reservarse la energía potencial de la masa de agua embalsada para cuando se requiera. ¿Cómo podemos pues estimar su contribución a la hora de acercarnos al 100% renovable?

Hemos considerado varios supuestos razonables a partir del histórico con el que trabajamos. Por una parte hemos visto que el factor de capacidad de la hidráulica está condicionado, como es natural, por cuestiones de caudales ecológicos, periodos de lluvias y sequías así como por las necesidades de capacidad mínima de los embalses para los otros usos del agua. Hemos considerado pues un factor de capacidad para empezar del 60%, esto es que de los 17GW hidráulicos solo asumiremos como disponibles en cada momento dado unos 10GW como máximo. Esta será la cifra de potencia máxima que le supondremos pues a la hidráulica. Es algo que se corresponde con el histórico de datos de generación hidráulica.

La hora de máxima generación hidráulica estaba produciendo 11.7 GW de potencia eléctrica. Vemos que existen valores negativos ya que el bombeo se halla incluido implícitamente. Así, asumiremos que las horas en negativo son horas sin producción hidráulica y con bombeo. Vemos como el mínimo valor de -4 GW coincide con el bombeo instalado.

Además de eso hemos asumido que en el total de cada escenario no podremos superar nunca a la producción total realmente generada en el histórico de datos, atendiendo así a las limitaciones propias de la necesidades de capacidad de los embalses. Excluiremos del cálculo todas las horas en negativo asumiendo que la hidráulica no estaba turbinando sino solo con los bombeos activados. A partir de ahí asumiremos que la hidráulica puede hacerse cargo de todos los déficits eléctricos hasta los 10 GW. Más allá de eso será insuficiente. Es una suposición tal vez algo atrevida porque, en efecto, hay muchas variables a considerar que hacen que la potencia hidráulica realmente disponible en cada momento varíe. Pero aquí hemos considerado una cosa y es que con la expansión de las renovables esa potencia disponible cada vez será mayor porque la hidráulica se abstendrá de producir muchas más horas que ahora. Eso significa que los pantanos tendrán una capacidad mayor en promedio dando más margen para turbinar a las horas en las que eólica y solar flaqueen. Así que teniendo todo eso en cuenta hemos considerado esa suposición como válida. Y el resultado de añadir la hidráulica junto al resto de renovables es el siguiente:

Como vemos, tras incluir la hidráulica la idea de alcanzar un 90% de generación renovable ya no es tan descabellada. Triplicando la potencia eólica y solar ya estaríamos en ese rango, probablemente bastante antes ya que es de suponer que los bombeos y otros sistemas de almacenamiento se irían usando e instalando mucho antes de llegar ahí para aprovechar buena parte de los excedentes.
La contribución de la hidráulica empieza estable, en torno a ese 11% pero termina por disminuir en los escenarios de más excedentes eólicos y solares. Eso significa que conforme nos vamos hacia la esquina derecha inferior del gráfico menos agua necesitamos turbinar porque los déficits de potencia son mucho menores en promedio y menos aporta al mix. En los escenarios más extremos tal vez por cuestiones ecológicas habría que turbinar más de lo que se indica lo que aún incrementaría más los excedentes renovables para aprovechar, ya sea en interconexión o almacenamiento.

Escenarios de mayor demanda eléctrica

No es esperable que la demanda eléctrica siga estancada. Debido a la electrificación de todo, especialmente del transporte, de la calefacción y de buena parte de la industria, se generará una demanda añadida. Es cierto que parte de esta podría ser atendida por el autoconsumo y por los excedentes que venimos citando pero aún así nos pondrá las cosas más difíciles a la hora de alcanzar niveles tan ambiciosos de penetración renovable en un tiempo récord como el propuesto. La IEA prevé un aumento de la demanda eléctrica de alrededor de un 30% para 2030 aunque eso probablemente sea excesivo para el caso de España ya que se correspondería a un generoso crecimiento del 3% anual. Dicho incremento de la demanda lo hemos calculado de forma homogénea, sin modificación del patrón de consumo. Esto no es del todo correcto ya que debido al autoconsumo diurno y a la carga nocturna de vehículos es muy probable que dicho incremento sea más fuerte en el horario nocturno que en el diurno, pero como es algo que tampoco está claro como evolucionará optamos por no complicarnos.

Obsérvese cómo incluso con un crecimiento de demanda importante a múltiples altos apenas hay disminución del share renovable y eso es debido al mejor aprovechamiento de los excedentes renovables gracias a la reserva hidráulica.

Previsiones de crecimiento renovable

Ahora que sabemos todo esto lo podemos vincular con los ritmos de crecimiento observados para fotovoltaica y eólica en los últimos tres años. Concretamente partiremos desde noviembre de 2018, que es donde marcaremos, un poco arbitrariamente, como el inicio del nuevo despertar renovable en España. Podemos verlo en el primer gráfico del post.

Desde entonces hemos instalado eólica a razón de más o menos 1.5GW al año y fotovoltaica unos 3GW anuales sin que la demanda haya aumentado. Si asumimos un crecimiento lineal a demanda constante, como hasta ahora, tendríamos lo siguiente:

% Renovable*EólicaFotovoltaicaDemanda
202145%1.0X1X1X
202558%1.2X2X1X
203071%1.5X3X1X
203580%1.8X4X1X
Proyección de crecimiento lineal manteniendo ritmos actuales. *Sin considerar almacenamiento alguno ni crecimiento neto de la demanda

Según estos resultados alcanzar el 90% no parece esperable en la próxima década, tampoco se lo proponen en el PNIEC en donde habrán hecho una proyección también lineal como la nuestra pero hay varios puntos a tener en cuenta que pueden cambiar ese cuadro.

1. Hemos asumido un crecimiento lineal. Es posible que a lo largo de la década las tecnologías tanto eólica como fotovoltaica sigan reduciendo costes lo que aceleraría los ritmos más allá de toda previsión. Claramente aquí el crecimiento flaquea del lado de la eólica, y es que la fotovoltaica cumple con creces tan solo manteniendo el ritmo lineal. Tal vez tenga cierta lógica porqué la eólica terrestre lleva tiempo desplegada mientras que es la fotovoltaica la que ahora está ganando en costes en las recientes subastas y la que estaba más rezagada. Pero sería prudente, tal y como se veía en las matrices de arriba, promover un crecimiento parejo en ambas tecnologías y ahora mismo vemos que está bastante descompensado del lado solar. La solución para desbloquear esto creo que será la eólica marina. Según la industria, el potencial ibérico en eólica marina es de 219GW (207 flotantes y 12 en base fija). La excesiva profundidad de los litorales ibéricos ha sido tal vez un punto que ha retrasado notablemente la adopción, pero con el abaratamiento de la eólica flotante cada vez hay menos excusas. De que esta tecnología explote en la próxima década puede depender el que se pueda alcanzar el 90% en tiempo récord.

Deberían planearse 35GW de eólica marina para la próxima década para poder acelerar el desarrollo eólico que nos acerque al 90% para 2030. No es algo impensable, Alemania acaba de planear 45GW solo de offshore para 2035

2. Por último, para un análisis completo habría que tener en cuenta el almacenamiento que ya tenemos, unos 4GW de bombeo, potencia que seguirá creciendo hasta alcanzar unos 10GW a finales de la década. Eso sumado a las baterías y otros sistemas que se desplieguen contribuirá también a aumentar el % renovable aprovechado y las opciones reales de alcanzar ese ambicioso 90% renovable para 2030/35.

A continuación planteo tres escenarios de crecimiento renovable con ese mayor crecimiento eólico pero también con crecimiento de la demanda eléctrica. Hay que recordar que la demanda eléctrica hizo pico en 2008 y desde entonces el consumo se ha mantenido estable, estancado. Huelga decir que cuanto menos suba la demanda más rápido descarbonizaremos el mix.

% Renovable*EólicaFotovoltaicaDemanda
202145%1.0X1X1X
202565%1.5X2X1X
203080%2.0X3X1X
203590%2.5X5X1X
Proyección acelerando el crecimiento eólico con offshore y con una aceleración en FV para la siguiente década. *Sin considerar almacenamiento alguno ni crecimiento neto de la demanda
% Renovable*EólicaFotovoltaicaDemanda
202562%1.5X2X1.05X
203075%2.0X3X1.10X
203582%2.5X5X1.20X
Escenario de crecimiento moderado de la demanda, sin considerar almacenamiento
% Renovable*EólicaFotovoltaicaDemanda
202560%1.5X2X1.1X
203065%2.0X3X1.3X
203572%2.5X5X1.5X
Escenario de alto crecimiento de la demanda, sin considerar almacenamiento. Como vemos será muy difícil llegar más allá del 70/80% renovable si la demanda creciese a tasas importantes.
% Renovable*EólicaFotovoltaicaDemanda
202559%1.2X2X1X
203075%1.5X4X1X
203583%1.8X7X1X
Escenario de boom exponencial fotovoltaico, sin aceleración eólica, sin considerar almacenamiento y a demanda neta constante. En este caso, para alcanzar porcentajes mayores los requerimientos de almacenamiento serán importantes que en el escenario más compensado entre eólica y fotovoltaica.

Lograr el 100% renovable

Visto lo visto no parece que haga falta tanto almacenamiento como muchas veces se sugiere, principalmente por dos razones. Una ya la hemos visto, lo normal es que se tienda a sobregenerar y cuanto menos alcanzar en algún momento una producción alrededor de un 50% por encima de la demanda, pero podría ser más a largo plazo. Con ese colchón reduciríamos mucho las necesidades de almacenamiento y ya vemos en el cuadro anterior que con un 50% de sobregeneración nos podríamos situar en niveles del 95% renovable. El único freno a la sobregeneración es en realidad económico ya que para un mismo coste de instalación la amortización cada vez será más larga al verse reducido el retorno. Pero si los costes de las renovables siguen reduciéndose puede que sobregenerar hasta cierto nivel sea más rentable que instalar el correspondiente almacenamiento y tengamos una curva de coste similar a la siguiente:

La otra gran arma para acercarnos al mítico 100% va a ser la interconexión. En ocasiones, cuando una red vaya sobrada de recursos renovables el vecino estará débil y viceversa. Sobreproducir, nos dará margen de exportar electricidad si el vecino anda corto y paga bien. Así, una interconexión más robusta combinada con la sobregeneración que antes he comentado nos debería permitir llegar a niveles cercanos al 100% posiblemente. En ese sentido la península Ibérica es actualmente bastante isla energética a diferencia de los países centroeuropeos pero eso podría cambiar. Lo lógico sería primero reforzar la conexión que ya se tiene tanto con Francia como con Marruecos y pensar en la conveniencia de establecer proyectos de cableado submarino ya sea hacia Italia u otros países del norte de África como hacia las Islas Británicas. Tal vez aún sea pronto pero el panorama se irá clarificando en pocos años conforme sepamos a qué ritmo podemos crecer en eólica marina y cuanto crecen en potencia renovable nuestros vecinos respecto a nosotros.

Naturalmente nada nos librará de tener que instalar algo de almacenamiento pero a todas luces no hará falta tanto ni se tendrá que instalar de una tacada, sino conforme la demanda lo vaya requiriendo, es decir progresivamente. Y se va a demandar conforme aparezcan los primeros excedentes renovables que hemos mencionado al principio y para lo cual falta ya poco. Es solo con ese almacenamiento con el que se podrá completar y cerrar el mix para lograr el ansiado 100% quizá para 2040.

A vueltas con el almacenamiento

Con los datos que hemos recogido nos propusimos realizar un último experimento, el de una batería imaginaria con eficiencia perfecta, potencia ilimitada para cualquier déficit y con carga suficiente para aguantar los cinco años con un mix puro de eólica y solar sin descargarse del todo nunca. Naturalmente semejante batería es imposible pero su gráfico de descarga (que marca la evolución de su estado de la carga o SOC) nos permite realizar el ejercicio de visualizar qué es lo que pasa.

Esta simulación la hemos realizado con un mix 4X / 4X . Es decir cuadriplicando la potencia instalada tanto de fotovoltaica como de eólica. Hemos subdividido el gráfico de descarga en tres segmentos. La gracia del asunto es que para resolver todo este puzzle no se va a usar una única tecnología sino una combinación de varias según se adapten mejor a uno u otro uso.

Para cubrir el primer tramo (el delimitado por la línea roja superior) se requeriría tener unos 170GWh disponibles para ciclar con frecuencia intradiaria. Por lo menos la mitad de esa energía ya por sí sola la puede cubrir nuestra hidráulica, la interconexión podría hacerse con otra parte y el resto sería para las baterías de litio de corta duración (2 a 4h) y otras tecnologías del segundo tramo. El primer tramo es el más exigente en frecuencia pero también el que menos capacidad requiere, por ello es ideal para las baterías de litio, más eficientes, con mayor velocidad de respuesta pero de menor duración. Este es el lugar de las baterías distribuidas de uso múltiple, como backup, para hacer arbitraje energético, pero también asistiendo al equilibrio de red. El V2G (Vehicle to Grid) también podría aportar buena parte de la capacidad y potencia necesarias y ahorrar mucho el requerimiento total de baterías dedicadas.

El segundo tramo en el ejemplo (situado entre las dos rectas rojas) requiere ya disponer de unos 500GWh de capacidad adicional (670GWh los dos tramos sumados). Nuevamente, la hidráulica, la interconexión y el bombeo reversible aportarán buena parte de esa capacidad junto a nuevas tecnologías de almacenamiento de larga duración. El conocido como LDES (long duration energy storage). A este grupo pertenecen las baterías electroquímicas de flujo, de metal aire y las termoeléctricas de metal líquido. También los dispositivos GBES (Gravity Based), CAES (Compressed Air) o LAES (Liquid Air). Este tipo de instalaciones son también ya de mayor escala, y muchas estarán asociadas a parques de generación renovable. Estas tecnologías ocuparían una posición intermedia y central siendo capaces de asistir en las necesidades tanto del tramo 1 como del tercer y último tramo.

El tercer tramo sería el del almacenamiento de muy largo plazo caracterizado además por una baja frecuencia de ocurrencia. Requiere virtualmente de una capacidad brutal pero en realidad no construiremos ninguna batería para cubrirlo entero. No tendría sentido ni práctico ni económico pues aquí nos hacemos cargo de los eventos infrecuentes. Aparecen como excursiones aleatorias en el gráfico de descarga. No son muchas pero agotarían la capacidad de cualquier batería por gigante que fuera. Aquí la hidráulica seguirá echando una mano pero tendremos que contar irremediablemente también con la interconexión. Será el último reducto del gas (el gas peaking), durante un tiempo algunos ciclos combinados seguirán operativos listos para arrancar en ocasiones puntuales. Pero estas centrales podrían irse substituyendo por centros adaptados al consumo de hidrógeno electrolítico o para usar metano procedente de sistemas P2G (power to gas). La eficiencia del proceso de obtención, almacenamiento y posterior combustión del hidrógeno o cualquier otro sintético es baja pero también lo sería la frecuencia de uso. Sería la salvaguarda de último recurso y lo que garantizaría el suministro en el peor escenario posible. Los primeros años tendríamos pues una reserva estratégica de Metano fósil que pasaría progresivamente a ser de biogas, de Hidrógeno electrolítico y/o metano sintético. El tamaño de esa reserva lista para despachar no está claro porque en parte dependerá del nivel de interconexión y sobregeneración propia y de los vecinos conectados. De ahí lo importante de mejorar ese último aspecto.

¿Y para 2050 qué?

Me permito aquí hacer un ejercicio de cierta ciencia ficción cercana porque el 2050 y más allá nos queda demasiado lejos y porque creo que la transición no se detendrá aquí. La capacidad de generar energía podría seguir incrementándose y los excedentes llegar a cotas realmente absurdas. La eólica marina podría seguir expandiéndose mar adentro creando corredores conectados con generación híbrida tanto eólica como de OWC (Oscilating Water Column) y con almacenamiento por flotabilidad y electrólisis directa del agua de mar. No pararíamos hasta electrificar también la navegación ya sea directa o indirectamente pudiendo situar las hidrogeneras e incluso electrolineras en alta mar. Capaces podríamos ser ya de concebir estratégicos cables submarinos intercontinentales, flanqueados por interminables parques marinos, crear interconexiones que conecten zonas de usos horarios distintos, el día con la noche, o de hemisferios distintos, el verano con el invierno. Las pérdidas de dichas conexiones aun pudiendo ser importantes se verían compensadas por el hecho de dar utilidad a los enormes excedentes generados por algunas regiones especialmente ricas en recursos renovables que de otra forma se perderían. Es posible que la del gas peaking en realidad solo sea una fase y el estadio final sea una macro red energética global densamente interconectada, una suerte de Enernet. Una red en la cual la energía, al igual que pasa con la información en internet, dejaría de ser un bien escaso.

Capacidad de cubrir la demanda con eólica y solar solo con interconexión (sin almacenamiento ni sobregeneración), en (a) escala regional (interconexiones entre estados), (b) subcontinental (entre regiones multinacionales) y (c) continental (entre continentes enteros).

Conclusiones

Una de las cosas que queda clara es que existen múltiples caminos para acercarse al 100% renovable y lo más probable es que el elegido sea una combinación de todas las capacidades aquí mostradas. Es esa multiplicidad de opciones la que me convence de su factibilidad ya que es difícil que pueda existir un cuello de botella crítico pues si alguna estrategia no resulta siempre tenemos varias alternativas que sí podrían hacerlo. En nuestro caso concreto, alcanzar ese 90% antes de lo previsto vemos que requiere que se den dos elementos importantes. Primero una aceleración en el ritmo de despliegue de la eólica. Para que ello sucediera probablemente debería entrar en juego la eólica marina con un planeamiento de un mínimo de 35GW adicionales a los que se instalen de eólica terrestre. Así mismo, el consumo eléctrico no debería subir demasiado, a ser posible mantenerse. Aquí operan aspectos contradictorios por una parte la expansión de la movilidad eléctrica con los BEV presionará al alza el consumo eléctrico pero a la vez supondrá una mayor capacidad del V2G permitiendo mayores aprovechamientos renovables. Por otro lado, una expansión rápida del autoconsumo fotovoltaico contribuirá a reducir la demanda en las horas centrales del día, y habrá seguro más adaptaciones de la industria que ahora se nos escapan, así que no está claro como evolucionará la demanda. Lo que hemos tratado de explicar en este trabajo es que, llegar al 90% sin grandes requerimientos de almacenamiento adicional no es algo impensable aquí al menos y que si no ocurre tan pronto ocurrirá más tarde con seguridad. No existe inviabilidad técnica y el único limitante real será el económico que es el que dictará los tiempos así como el ritmo al que incrementemos la demanda eléctrica. Pero todo eso a lo sumo lo que puede hacer es retrasar la transición pero no evitarla.

Fuentes

Esios REE

Geophysical constraints on the reliability of solar
and wind power worldwide

GWEC Offshore Wind Resource Hub

LDES Report

Carbon Tracker Initiative – Report: The Sky’s the Limit

Rethink Report: Rethinking Energy 2020-2030

Publicado el por Víctor García | 1 Comentario

La nefasta gestión de la pandemia en Madrid


En España existe la falsa creencia de que la gestión económica y sanitaria de la pandemia de COVID-19 que ha realizado el gobierno regional de la presidenta Isabel Ayuso ha sido buena. En líneas generales, se argumenta que se ha hecho todo bastante bien ya que (i) las intervenciones en materia de política sanitaria han sido de las más avanzadas, y (ii) a nivel económico, se ha dado más libertad que en otras regiones para que las empresas y comercios no se vieran tan afectados por las restricciones, lo que en última instancia habría hecho que el mercado de trabajo de la región de Madrid fuese de los “más dinámicos” de todos.

Sin embargo, desde una perspectiva comparada, los datos oficiales de Eurostat sobre la gestión de la crisis sanitaria y económica muestran que el comportamiento de España, y en especial en Madrid, hasta finales de 2020 fue pésimo. La resistencia al shock del COVID-19 fue casi nula y la argumentación anterior simplemente no se sostiene por ningún lado.

El exceso de mortalidad acumulado con respecto al promedio histórico de 2015-2019 durante 2020 en Madrid fue del 42.1% mientras que la pérdida de empleo en % (para la población de 25-64 años) del 2.2%. En España, las pérdidas de empleo durante 2020 fueron del 2.3% y el exceso de mortalidad del 15%. Estas dos métricas nos colocan en el farolillo rojo de Europa en cuanto a gestión de la pandemia. Prácticamente todas nuestras regiones puntúan en el 25% superior de la distribución de pérdidas de empleo y de vidas en los mapas a continuación. Esto contrasta con la capacidad de minimizar daños económicos y el coste en vidas de las regiones de países del norte y centro de Europa.

Nota: La escala de colores (de amarillo claro a rojo oscuro) aumenta con las pérdidas de empleo. El rango de color rojo abarca al 25% de las regiones con pérdidas de empleo más elevadas, entre el 1.4 y el 2.9%. Las regiones coloreadas en rojo oscuro son las que pertenecen al 5% superior de la distribución, con pérdidas de empleo superiores al 2.9%.

Nota: La escala de colores (de amarillo claro a rojo oscuro) aumenta con el exceso de mortalidad. El rango de color rojo abarca al 25% de las regiones con un exceso de mortalidad más elevado, entre el 15.4 y el 20.9%. Las regiones coloreadas en rojo oscuro son las que pertenecen al 5% de la distribución, con excesos de mortalidad superiores al 20.9%.

A continuación, se muestra la relación entre (i) las pérdidas de empleo y (ii) el incremento de mortalidad, para la muestra de 233 regiones de 27 países europeos mapeadas anteriormente (los círculos en rojo son las regiones españolas). La clasificación en cuadrantes centrados en el promedio europeo sirve para (ii) determinar si una región lo hizo bien en las dos dimensiones, en una pero no en la otra, o si lo hizo mal en ambas; y (ii) para comprobar que, a nivel general, sí que existía un débil “trade-off” entre economía y salud.  

Si se hace un zoom considerando los índices de desempeño estandarizados en cada una de la dos dimensiones, sanitaria y económica (con los ejes centrados en el promedio europeo), pero tomando en consideración únicamente las regiones españolas, puede observarse que la única región que puntúa por encima de la media europea en las dos dimensiones analizadas es Asturias. Pero lo que más llama la atención, es la ubicación extrema de Madrid, con un nivel de mortalidad muy elevado para lo abultado de su caída en empleo. También destacan los resultados pésimos en empleo de Baleares y Canarias explicados por su dependencia del turismo (casi un 40% del empleo en ambas regiones está relacionado con actividades de restauración, acomodación, etc).

Dada la heterogeneidad que hay en la muestra de regiones europeas, se podría argumentar que tiene más sentido comparar Madrid con otras regiones capitales europeas. En la tabla a continuación se muestra que Madrid sale también muy mal parada en esta comparación, ya que es la segunda capital europea que peores resultados económicos obtuvo (sólo superada por Eastern-Midland (IE06), la región de Dublín) y la peor de todas en términos sanitarios, muy lejos de Bruselas (BE10). Por su parte, las dos regiones capitales con mejores resultados en el mercado de trabajo de toda Europa fueron Atenas (EL30) y Budapest (HU11) que experimentaron tasas de crecimiento positivas. En términos de exceso de mortalidad, las que consiguieron tasas más bajas y donde la pandemia prácticamente no se hizo notar (con sólo un 1% adicional de mortalidad), fueron las regiones de Copenhague (Hovestaden, DK01) y Riga (LV00).  

Nota: en azul se destacan las dos mejores, en rojo las dos peores.

Resumiendo, no hay ningún motivo para la visión triunfalista que se sostenga con los datos actualmente disponibles. Casi todas las regiones españolas lo han hecho mal y dentro de España, Madrid ha sido de las peores. En 2020 fue la región con el exceso de mortalidad más alto de toda Europa y a nivel de empleo, quedó la número 205 de 233. Son cifras realmente malas que no tienen vuelta de hoja.

……………………………………………………………………………………………………………

Nota: Este análisis sólo nos da una foto fija de la geografía de la crisis de la pandemia de COVID-19 hasta el 31/12/2020, ya que al no existir datos consolidados de 2021 no es posible tener en cuenta que la severidad de la epidemia y velocidad de recuperación del empleo durante 2021 han podido alterar ligeramente los ránkings.

Publicado en Sin categoría | Etiquetado , , , | Deja un comentario

¿Por qué el uso obligatorio de mascarilla en el exterior no tiene ningún sentido?

La propagación del SARS-CoV-2 por transmisión aérea en espacios cerrados está ampliamente aceptada. Sin embargo, la probabilidad de transmisión por el aire al aire libre depende de varios parámetros, aún bastante inciertos: concentraciones de aerosoles cargados de virus, viabilidad y duración, dosis mínima necesaria para transmitir la enfermedad.

En este trabajo de Belosi et al. (2021) publicado en el Journal of Environmental Research los autores realizan una estimación de las concentraciones al aire libre en el norte de Italia (región de Lombardia) utilizando un enfoque de modelo de caja simple, basado en una estimación de las emisiones respiratorias y para las ciudades de Milán y Bérgamo (Italia).  Además, investigan la probabilidad de interacción del aerosol cargado de virus con partículas preexistentes de diferentes tamaños.

Los resultados indican concentraciones promedio al aire libre muy bajas (<1 copia de ARN / m3) en áreas públicas, excluidas las zonas concurridas, incluso en el peor de los casos y asumiendo una cantidad de infecciones hasta el 25% de la población.

En promedio, asumiendo un número de infecciones igual al 10% de la población (es decir, una IA de 10 mil por 100mil, o unas diez veces peor que en el peor momento de la pandemia), el tiempo necesario para inspirar un cuanto (es decir, la dosis de núcleos de gotitas en el aire requerida para causar infección en el 63% de las personas susceptibles) sería de 31,5 días en Milán (rango 2,7-91 días) y 51,2 días en Bérgamo (rango 4,4-149 días).

Fig. 2
Fig. 3

Por lo tanto, la probabilidad de transmisión aérea debido a aerosoles respiratorios es MUY BAJA en condiciones exteriores.

También muestran que la probabilidad de que el aerosol cargado de virus se adhiera a partículas atmosféricas preexistentes (se ha hablado mucho de las PM2.5 o PM10) resultó ser insignificante, por lo que los resultados aplican también a ciudades densas y con un elevado nivel de contaminación.

Por tanto, la evidencia científica muestra que la ley que se ha aprobado hoy en España y que regula el uso obligatorio de mascarilla en todo momento no tiene ningún fundamento.
Parece que en el gobierno no hay nadie leyéndose lo que va saliendo…

Publicado en Sin categoría | Deja un comentario