B SOSTENIBLE

B SOSTENIBLE

miércoles, 22 de diciembre de 2010

CAMBIO CLIMÁTICO: “Hemos hecho muy poco para tratar este problema tan inmenso”

ENTREVISTA

“Hemos hecho muy poco para tratar este problema tan inmenso”

Jean-Pascal van Ypersele: “La física del clima no tiene nada que ver con la agenda política…” © Jacky Delorme (UCL)
Jean-Pascal van Ypersele: “La física del clima no tiene nada que ver con la agenda política…”
© Jacky Delorme (UCL)
El clima terrestre está influenciado por las variaciones de la energía irradiada por la corona solar (muy visible aquí mientras se produce un eclipse) así como por la posición de la Tierra con relación a su estrella. Aunque estos parámetros varíen en el transcurso de grandes escalas de tiempo, no bastarían para explicar el fuerte aumento de las temperaturas observado desde la revolución industrial. © ESO
El clima terrestre está influenciado por las variaciones de la energía irradiada por la corona solar(muy visible aquí mientras se produce un eclipse) así como por la posición de la Tierra con relación a su estrella. Aunque estos parámetros varíen en el transcurso de grandes escalas de tiempo, no bastarían para explicar el fuerte aumento de las temperaturas observado desde la revolución industrial.
© ESO

Jean-Pascal van Ypersele, vicepresidente del IPCC(1), nos habla del calentamiento climático bajo una óptica científica, sin olvidar la interpretación política, a veces sorprendente, que se da del mismo…

Puede que ya haya consenso sobre la existencia del calentamiento climático, pero ¿es seguro que las actividades humanas son las culpables del mismo?

Existe gran convicción de que el hombre es responsable de este fenómeno y va creciendo con los años. En 1995, el IPCC decía en su informe que “una serie de elementos apuntan a que existe una influencia perceptible de las actividades humanas sobre el clima”. En el 2007, se observó que la mayor parte del calentamiento de los últimos cincuenta años “muy probablemente se debía” a los gases de efecto invernadero causados por el hombre, lo que traduce una probabilidad superior al 90 %.
Esta seguridad se basa en numerosas razones. Por supuesto, en los modelos climáticos, que tanto han avanzado. Pero también en la forma característica del calentamiento: se traduce en un enfriamiento de la alta atmósfera, porque los gases de efecto invernadero encierran una parte del calor en la atmósfera baja que, a su vez, se calienta rápidamente. Si, por ejemplo, el calentamiento se debiera a la intensificación de la actividad solar, sería uniforme, incluso mucho mayor en la estratosfera. Además, observamos que los polos se calientan más rápidamente que los trópicos, fenómeno que corrobora la explicación del efecto invernadero.

¿Qué consecuencias hay que temer?

El último informe del IPCC destina varios cientos de páginas al resumen de los impactos, que van desde la disminución de los rendimientos agrícolas hasta diferentes problemas sanitarios. Me gustaría destacar la importancia de las modificaciones hidrológicas: los modelos predicen que varias regiones muy pobladas sufrirán una intensa desecación, entre ellas la cuenca mediterránea, donde ya se están dando serios problemas de acceso al agua. Otro aspecto es el deshielo de los glaciares de los Andes y del Himalaya, que son el depósito de agua de centenares de millones de personas para quienes la estación de las lluvias sólo dura de algunas semanas a algunos meses. El resto del año, estos glaciares alimentan los ríos; por lo tanto, su anunciada desaparición es muy preocupante.
Otro impacto será la elevación del nivel del mar. Afectará a todos los litorales europeos, sobre todo a las costas bajas como las de los Países Bajos, Bélgica, Alemania… Va a acelerarse la erosión, se infiltrará agua salada en las capas freáticas, aumentarán los daños de las tormentas, etc. Y en el delta del Nilo, diez millones de personas viven a menos de un metro por encima del nivel del mar. Está previsto que en este siglo el nivel del mar suba por lo menos 50 cm, o quizás un metro. ¿Dónde va a ir toda esa gente?

¿Qué posición se debe adoptar frente al “umbral de peligro” fijado en 2°C de calentamiento?

El IPCC nunca ha dicho que no se tuviera que exceder los 2°C de calentamiento, ni que se debiesen estabilizar las concentraciones de CO2 atmosférico a menos de 450 ppm (partes por millón). Nuestro trabajo (y este matiz es importante) consiste en decir que a un determinado escenario de emisión le corresponde un calentamiento dado y, por lo tanto, un determinado tipo de impacto. Son las autoridades políticas quienes tienen que definir los impactos aceptables, puesto que eso supone juicios de valor que no incumben a los científicos. Históricamente, la cifra de 2°C empezó a mencionarse en el año 1996, en una reunión del Consejo de ministros de la Unión Europea. Luego fue validada en cierto modo en el informe del 2001 del IPCC, donde se publicó el célebre diagrama “burning embers” (brasas ardientes) que sintetizaba la gravedad de los impactos según diferentes temperaturas. Su código de colores pasaba del blanco al rojo en torno a los 2°C en la mayoría de los impactos, por lo que la cifra se quedó grabada en la mente de todos a pesar de que se basa en datos de hace más de una década.

¿Quiere decir que los últimos datos científicos invalidan este umbral?

A petición de los políticos, se han revisado los impactos con minuciosidad. Para los autores del informe del 2007, prácticamente los mismos que en el 2001, los umbrales tendrían que revisarse a la baja en aproximadamente 0,5°C. Su nuevo gráfico [Nota de la redacción: véase el artículo “Las herramientas de diagnóstico” de este número] no fue publicado en el informe, pero acabó por salir en la revista científica estadounidense PNAS (Proceedings of the National Academy of Sciences) en el 2009. Ya le he dicho que no me incumbía, como vicepresidente del IPCC, definir un umbral de peligro. En cambio, sí le puedo decir que si los ministros reunidos hace 13 años para fijar el umbral de 2°C y 450 ppm se reunieran ahora y se basaran en los mismos criterios que entonces, muy probablemente fijarían el umbral de peligro en 1,5°C y en 350 ppm.

¿Cuáles serían las incidencias de tal cambio de “umbral de peligro”?

Por el momento, el IPCC no responde a esta pregunta, porque el escenario más “magnánimo” evaluado en términos de emisiones genera de 2°C a 2,4°C de calentamiento. ¡Así que estamos obligados a extrapolar para tener una idea de las emisiones que permitirían quedarse por debajo de 1,5°C! Creo que esta laguna se colmará en el próximo informe, pero evidentemente esto implicará la revisión de todos los objetivos para hacerlos aún más vinculantes.

¿Los políticos han prestado más atención al IPCC desde su último informe?

Se ha dado un cambio sumamente positivo (y esto no contradice lo que acabo de decirle), puesto que el objetivo de 2°C ha sido adoptado recientemente, primero en el G8 y luego en el G20. Es un hecho muy importante, a pesar de las reservas que tengo con esta cifra, porque hasta entonces no se había adoptado ninguna cifra en el ámbito internacional, ¡lo peor que podía pasar! La Convención Marco de las Naciones Unidas sobre el Cambio Climático, adoptada en el año 1992 antes de la cumbre de Río, se limitaba a decir que había que estabilizar las concentraciones de gases de efecto invernadero “a un nivel que impida interferencias antropógenas peligrosas en el sistema climático”. Pues ya han pasado 17 años sin objetivo cifrado reconocido internacionalmente. La adopción de una cifra es un avance enorme, puesto que toda una serie de cifras emanan de la misma, principalmente los objetivos de reducción de emisiones.

Por lo tanto, ¿el trabajo del IPCC se está traduciendo poco a poco en decisiones políticas?

Sí, exceptuando que las interpretaciones que se realizan de nuestras estimaciones a menudo son… selectivas. Por ejemplo, dijimos que para estar entre 2°C y 2,4°C de calentamiento (y, lo repito, ¡no hemos dicho que “por debajo de” 2°C!) haría falta, teniendo en cuenta las incertidumbres científicas, que las emisiones mundiales llegaran a su pico “entre el año 2000 y el 2015”. Para algunos, este intervalo ya ha pasado a “en el 2015”, y lamento que, hace algunas semanas, para el Consejo Europeo, este plazo se transformó inexplicablemente en ¡“antes del 2020”! Posiblemente esto se deba a que el “paquete clima” europeo se ha elaborado con vistas al 2020, pero la física del clima no tiene nada que ver con la agenda política…
Otro ejemplo: el último G8, cuando adoptó el objetivo de 2°C, lo tradujo en “un descenso de las emisiones globales del 50 %”, pero sin dar ningún año de referencia, lo que sugiere que se refiere a las emisiones actuales. Ahora bien, en su informe, el IPCC decía que había que reducir las emisiones mundiales del 50 % al 85 % en relación a las del año 1990. ¡Y desde esta fecha, las emisiones han aumentado en un 40 %! En otras palabras, independientemente de cualquier consideración sobre nuestra capacidad de alcanzarlos, los objetivos actuales contemplados a nivel internacional están por debajo de lo que sería necesario para proteger a las poblaciones y a los ecosistemas.

¿Qué queda por hacer en materia de reducción de las emisiones?

A pesar de los avances logrados, hemos hecho muy poco para tratar este problema tan inmenso. Como botón de muestra, el protocolo de Kyoto: el objetivo era reducir las emisiones en un 5 % en 22 años en los países desarrollados (entre 1990 y 2012), y este objetivo quizás se logre a duras penas. Ahora bien, lo que hay que hacer ahora en estos mismos países, es reducir las emisiones en un 80-95 % en 40 años, lo que permitiría una reducción del 50-85 % para todo el planeta. Y a finales del siglo, habría que llegar al objetivo de cero emisiones. Esto supone revisar a fondo la manera en la que consumimos, en la que producimos (no sólo la energía sino todos los bienes), en la que nos desplazamos, nos alojamos, trabajamos… ¡Una auténtica revolución!

Entrevista de Yves Sciama

  1. IPCC: Panel Intergubernamental de expertos sobre el Cambio Climático. Jean-Pascal van Ypersele es físico, climatólogo y profesor en el Instituto de Astronomía y Geofísica de la Universidad Católica de Lovaina (Bélgica).

lunes, 20 de diciembre de 2010

Una nueva batería para impulsar el mundo de los vehículos pesados eléctricos





general-electric-buses2

















Según ha informado General Electrics, uno de sus equipos de investigación mundial (GE Global Research) ha obtenido un importante avance en relación con el futuro de los vehículos eléctricos. Un nuevo sistema de carga dual podría reducir el coste de las baterías un 20 por ciento al combinar diversos compuestos químicos que optimizarían su utilización.

Hasta el momento, la mayoría de las baterías que se utilizan para los nuevos sistemas de transporte limpios planteaban un conflicto entre almacenamiento de potencia o energía.
Las de litio (aquellas utilizadas en los nuevosvehículos eléctricos) proporcionan una gran potencia, necesaria para poder mover los coches, pero no consiguen almacenar grandes cantidades de energía. Este handicap de los sistemas de litio obliga a los conductores a repostar energía cada muy pocos kilómetros, lo que a la larga hace incómodo el uso de los coches eléctricos. Por su parte, las baterías de sodio permiten un mayor almacenamiento de energía, pero no consiguen desarrollar toda la potencia deseable para los coches eléctricos.
Para paliar esta incompatibilidad de características, los investigadores de General Electric han puesto a prueba un nuevo sistema de cargador dual en un autobús híbrido para estudiar su viabilidad. Esta tecnología, que podría reducir el coste de las baterías en un 20 por ciento, combina una de sodio con otra de litio, combinando de este modo las funcionalidades de ambos sistemas en una única tecnología.

Buses y camiones eléctricos

Este sistema podría abrir las puertas a la electrificación de medios de trasporte pesado como los autobuses o los camiones de reparto, un sector bastante estancado en la utilización de sistemas de movilidad eléctrica debido al elevado coste y al tamaño de las baterías.
Como explicaba el investigador principal del proyecto del autobús híbrido de General Electric, "lo bueno del sistema dual está en combinar la capacidad de almacenamiento justa con la capacidad de potencia necesaria".

Javier Flores
20/12/2010

miércoles, 15 de diciembre de 2010

Autopistas solares, transportarán vehículos y electricidad





Mucha gente se resiste a pensar que las autopistas solo sirven para el transporte de vehículos, como el arquitecto y urbanista sueco Mans Tham, quien asegura que las infraestructuras pueden servir también para el transporte de algo tan importante como es la energía. Y ante el advenimiento del coche eléctrico, ¿qué mejor que conducir también la electricidad?
En un intento de hacer las autopistas del futuro más atractivas y funcionales, Tham ha ideado esta impresionante infraestructura para la autopista de Santa Mónica (que cubre el tramo entre Los Ángeles y la costa), recubriéndola de paneles fotovoltaicos. Además de suministrar electricidad a las poblaciones cercanas, la propuesta proporcionará ‘empleo verde’ y favorecerá a las familias que viven cerca de la autopista, actualmente desfavorecidas por los inconvenientes de su proximidad (contaminación y ruido). 
El proyecto tendría -según Tham- una capacidad de generación de 115 MW y se complementaría con la instalación de pequeños tanques de biocombustible producido con algas que aprovecharían las altas concentraciones de CO2 habituales en las autopistas.A ambos lados, servicios de recarga para coches eléctricos y surtidores de biocombustible para la maquinaria agrícola.  

viernes, 10 de diciembre de 2010

El primer quirófano inteligente portátil es español

VIERNES, 10 10UTC DICIEMBRE 10UTC 2010

En esa búsqueda para encontrar nuevas fuentes de riqueza en España, el trabajo conjunto realizado entre quienes se dedican a la práctica clínica (los médicos) y a la investigación y docencia (profesores e investigadores universitarios) empieza a dar frutos. En Sevilla acaba de presentarse un quirófano inteligente portátil, que no es más que el resultado del esfuerzo que durante casi ocho años han realizado el físico Emilio Gómez, Director del Grupo de Física Interdisciplinar de la Escuela de Ingenieros de la Universidad de Sevilla, el neurólogoJavier Márquez, actualmente jefe del Servicio de Neurología del hospital Virgen del Rocío y el ginecólogo Guillermo Antiñolo, director del Programa de Medicina y Terapia Fetal en el citado hospital sevillano.

En síntesis, se trata de un prototipo, ya patentado —“y por tanto único en el mundo con estas características”, precisa Gómez—, que permite al equipo quirúrgico visualizar en distintos monitores, en todo momento y en tiempo real, todas las imágenes y datos que van surgiendo a partir de cada una de las acciones quirúrgicas que se están realizando dentro del quirófano. Todo ello coordinado desde un ordenador o cerebro central que no ocupa más espacio que una pequeña mesa con ruedas. La particularidad de este sistema, precisamente, estriba en que “es portátil”, dice Gómez y, por tanto, puede transportarse sin dificultad a aquellos quirófanos en los que se necesite.
Particularidad es también que, lógicamente, se evitan las obras de infraestructura para su instalación; eso supone eliminar costes y mil contratiempos. Y asimismo cabria destacar de él su condición de quirófano totalmente digitalizado, o el sistema que tiene de conexión e integración de todo el instrumental y de los monitores, así como la posibilidad de control remoto mediante un mando a distancia. Todo está conectado entre sí en el denominado Sistema para el Análisis y Gestión de Imágenes Quirúrgicas (SAGIQ) —que es el nombre oficial que le han dado—, donde, por ejemplo, los cables y conectores son desechables, con el fin de mantener la asepsia en todo momento.
Desde el punto de vista clínico, el “quirófano inteligente portátil” supone prácticamente eliminar las posibilidades de error en las intervenciones de alta complejidad. Y en cuanto a sus aportaciones docentes, permite la grabación y almacenamiento de toda la información del proceso, facilita que los estudiantes se familiaricen con la tele-cirugía y contribuye decididamente a la formación especializada. Ni que decir tiene que una de las mayores ventajas del SAGIQ es el control de calidad que ejerce sobre cualquiera de los procesos que se están practicando en el acto quirúrgico pues el sistema avisa de forma inmediata de cualquier posible error.
Evidentemente, no es “el único quirófano inteligente del mundo”, no. De estos hay cientos ya repartidos entre los hospitales más prestigiosos; son salas-quirófano integradas con imágenes de alta resolución e interconectadas, instaladas in situ que no se pueden transportar. La particularidad del SAGIQ es, como se ha dicho, que es transportable e incorpora, quizá, particularidades de monitorización, señales de video y datos procedentes de los múltiples dispositivos que intervienen en un acto quirúrgico complejo y, además, de alto riesgo.
La patente viene avalada por más de 350 intervenciones quirúrgicas, algunas tan complejas como las realizadas por Guillermo Antiñolo para corregir malformaciones fetales o las que el propio Javier Márquez ha hecho con técnicas de microcirugía para eliminar en niños y adultos tumores cerebrales. Con este sistema quirúrgico se practicó también, con éxito, la separación de siamesas en el año 2008 en este mismo hospital.
“Han sido casi 8 años quemando etapas, investigando y perfeccionando la técnica para llegar al actual resultado, explica el físico Gómez. Y todo ello ha supuesto “además del esfuerzo personal de un amplio y complejo equipo de científicos y médicos durante años”, añade Márquez, “un gran esfuerzo económico de cada uno de los departamentos a los que pertenecemos”. Las distintas Administraciones, por su parte, han aportado también su grano de arena y, hasta ahora, llevan gastado en el SAGIQ en torno a los 220.000 euros
Pero sin duda ha merecido la pena pues, a partir de ahora, cuando se comercialice el proyecto y se venda el SAGIQ a cualquier hospital que esté interesado en el mundo, el Servicio Andaluz de Salud se verá recompensado con un 7% de los beneficios según el acuerdo al que se ha llegado con la multinacional española Navimetric, responsable de desarrollar y comercializar el prototipo; un prototipo que se cree que podría estar en el mercado a mediados del año 2012
En cualquier caso, lo interesante, pensamos, es la idea de cooperación entre profesionales e instituciones que está germinando en España. Esta nueva idea de modernidad que, creemos, va apoderándose poco a poco de la Universidad y de, por ejemplo, los hospitales, y que supone, avanzar, entendemos, en la buena dirección. Parece que por fin se terminan los comportamientos estancos, al menos en lo que a cultura científica se refiere. En el campo particular de la Medicina, la decisión de cooperar entre médicos, docentes e investigadores es ya clara y suponemos que no habrá marcha atrás. En cuanto a Andalucía, de las 186 patentes registradas que tiene la sanidad pública, 64 lo han sido en el último año, lo que viene a confirmar que empieza a dar fruto esta labor de cooperación. Y es que, es verdad, si el médico es quien identifica el problema, puede ser el físico, el biólogo o el ingeniero el que tenga la solución, por citar solo a algunos de los especialistas con los que se puede cooperar. Así que mejor ponerse a trabajar juntos que “tirar las patas por alto” como se dice vulgarmente y que cada uno vaya a los suyo. A estas alturas ya nadie duda que la unidad y la puesta en común del conocimiento genera riqueza.

jueves, 9 de diciembre de 2010

El impacto letal del cambio climático

EL MUNDO.es / MEDIO AMBIENTE | Un estudio minucioso con datos de 184 países


El impacto letal del cambio climático


Proceso de deshielo de la Antártida. | Efe
Aumento de plagas y enfermedades, problemas en la agricultura y, por consiguiente, más hambre en el mundo, huracanes, lluvias torrenciales y sequía son algunos de los efectos del cambio climático. Si no se toman las medidas pertinentes, se estima que dentro de 20 años habrá un millón de muertes anuales como consecuencia de los efectos del calentamiento global.
Así se desprende del Informe 'Climate Vulnerability Monitor 2010: The State of the Climate Crisis' presentado este viernes en Londres. Esta iniciativa de DARA (Development Assistance Research Associates), en colaboración con el Gobierno de las Islas Maldivas, uno de los principales afectados y fundador del Foro sobre Vulnerabilidad Climática (FVC), analiza la situación de 184 países en todo el mundo frente al Cambio Climático.
Para el desarrollo de este informe, DARA ha contando con la colaboración del FVC, en el que han participado asesores políticos y científicos de todo el mundo, entre los que se encontraba Teresa Ribera, secretaria de Estado de Cambio Climático.
Este estudio se centra en detectar las vulnerabilidades que presentan los estados, en cuatro áreas principales; salud, desastres climatológicos, pérdida de hábitat y pérdidas adicionales en el sector primario y en los principales recursos naturales. Además, proporciona las herramientas necesarias para valorar de forma global qué zonas son las más afectadas y poder así planificar las respuestas con un orden de prioridades para dotar de mayor resistencia a los más vulnerables.

Los más pobres, los más afectados

Los países y sectores más pobres del planeta son los más vulnerables a los efectos del cambio climático y serán quienes soporten el 80% del costo de los daños por la variación del clima. Y es que 'a perro flaco todo se le vuelven pulgas'. Las pérdidas de producción agrícola por los efectos del cambio climático pueden incrementar en forma dramática el número de víctimas del hambre en los países en vías de desarrollo.
Pero el cambio climático no solo tiene un impacto en la seguridad alimentaria, sino que también puede influir en el desarrollo y el agravamiento de las enfermedades animales y las plagas. Teniendo en cuenta los escasos recursos de los que disponen para hacer frente a estos problemas, estos países se convierten el la principal víctima del calentamiento global.
Dinamarca, República Dominicana, Las Maldivas o Mozambique, son algunos de las naciones analizadas. De las conclusiones de este informe se desprende que prácticamente todos los países analizados (170 de 184 analizados) presentan un alto nivel de vulnerabilidad ante los efectos del cambio climático. España se encuentra en este grupo, destacando como principal peligro la desertificación.
La evolución de las muertes no es nada alentadora. Si actualmente el informe calcula que mueren alrededor de 300.000 personas al año por causa directa del Cambio Climático, en caso de "no hacer nada", para el 2030 se espera que mueran más de un millón de personas al año. Un alarmante incremento, en el que los niños del África Negra y el sur de Asia son los más perjudicados. Actualmente suponen el 80% de los 300.000 muertos anuales en todo el mundo (el 99% pertenece a países en desarrollo).

Medidas urgentes

Más de medio centenar de países necesitan ayuda de forma urgente debido a su alto grado de vulnerabilidad ante las consecuencias del avance del cambio climático.
Este informe, además de realizar un minucioso estudio sobre los problemas que nos afectan, también propone una serie de medidas de adaptación para mitigar los efectos del cambio climático, entre las que se encuentran programas de mejora de la calidad del agua o tratamientos contra insectos.
Los autores advierten de que nos encontramos frente a una amenaza seria e incluso irreversible, de que el tiempo se agota y de que es necesario actuar para reducir las emisiones contaminantes de forma urgente en los próximos 5 años.
ENLACE A LA WEB DE LA ENTIDAD (pincha en el banner) DONDE PUEDES DESCARGAR EL INFORME





miércoles, 1 de diciembre de 2010

Una nueva gobernanza económica para 2020

Iniciamos este blog con un magnífico artículo de opinión de ANTONIO ESTELLA  y CARLOS MULAS-GRANADOS publicado en EL PAÍS el pasado 26 de marzo de 2010.



Se calcula que alrededor de 2020 Europa será la zona más envejecida del mundo (con un 30% de personas mayores de 65 años) y también una de las menos pobladas (solamente el 6% de la población mundial habitará en la UE). Además, Europa refleja hoy menor potencial innovador y de crecimiento económico que sus competidores principales, en Oriente y Occidente, y el declive poblacional sólo puede agravar este problema. Si ahora no adoptamos medidas que puedan paliar y anticipar los efectos de dicha probable evolución, Europa corre el riesgo de convertirse en un continente irrelevante en tan sólo dos décadas.

Además del general antes señalado, la Comisión especifica cinco objetivos concretos: el empleo, la inversión en I+D+i, el cambio climático y el ahorro energético, la educación y la lucha contra la pobreza. Para todos ellos la Comisión especifica indicadores cuantitativos concretos, y también un calendario a través del cual dichos resultados deberían producirse. Compartimos esta aproximación, pero pensamos que hubiera sido mejor añadir algún objetivo adicional que permitiera conectar claramente las tres dimensiones de la sostenibilidad económica, social y medioambiental que pretendemos. Y desde luego, habría sido más adecuado concentrar el seguimiento de la Estrategia solamente en indicadores de output, y no de input (por ejemplo, en lo que se refiere al indicador del I+D+i, lo mejor hubiera sido proponer un indicador de número de patentes).Nosotros hemos defendido, en un documento recientemente publicado por la Fundación Ideas (www.fundacionideas.es), una visión similar a la expresada por la Comisión, ya que en nuestra opinión el gran objetivo que debería presidir la Estrategia 2020 debería ser alcanzar mayores cotas de prosperidad (crecimiento con calidad tanto en el ámbito social como en el medioambiental).

La Comisión dedica una buena parte de su propuesta a la cuestión de la gobernanza de la futura Estrategia 2020. Esta es la parte en donde más habría que reforzar la propuesta de la Comisión. En efecto, el problema fundamental de la pasada Estrategia de Lisboa estuvo precisamente en la excesiva flexibilidad con la que se concibió su gobernanza. Además, sus palancas más importantes (perspectivas financieras, pacto de estabilidad y agenda de reformas) aparecían claramente desconectadas entre sí. Entendemos que Europa está madura para dar un paso más en dicha gobernanza y para reconectar los tres elementos antes señalados.

Primero, aumentando de manera clara el presupuesto comunitario. A menudo se dice que Europa es un gigante económico y un enano político. Nosotros nos preguntamos, sin embargo, si no será exactamente al revés: con un presupuesto del 1,05% de la RNB de la Unión, lo que falta precisamente es mayor músculo presupuestario en Europa. En este sentido, la propuesta de la Comisión es muy tímida. Caben, sin embargo, soluciones. Por ejemplo, en una primera fase, se podría pasar del actual 1% del presupuesto al 1,27% (que era el techo presupuestario antes de que se tomara la poco europeísta decisión de reducirlo a la cifra actual). El exceso se financiaría no a través de nuevas contribuciones de los Estados, sino a través de nuevos impuestos comunitarios, específicamente sobre transacciones financieras y emisiones contaminantes.




En segundo lugar, la nueva gobernanza económica europea necesita establecer un esquema sensato de incentivos positivos y negativos que fomente el cambio de modelo económico de la Unión. La presidencia española de la UE ha tenido el mérito de abrir este debate, y de nuevo, la propuesta de la Comisión es demasiado cauta en este sentido. Cabría pensar en un sistema de incentivos positivos y negativos, estructurado a través de la creación de lo que se podría denominar "el Fondo Lisboa". Los Estados miembros que fueran cumpliendo objetivos irían cobrando una parte de ese Fondo -el "premio Lisboa"- y los que no los cumplieran, serían penalizados con el no cobro de dicho premio. La Comisión propondría la penalización y sería el Consejo el que debería aprobarla.
Finalmente, desde un punto de vista institucional, entendemos que la gobernanza de laEstrategia 2020 debería recaer de forma más clara sobre la Comisión. La razón es simple: no pueden ser los Estados miembros los que se autocontrolen, porque ello pone en riesgo la credibilidad de todo el proceso.
La aprobación de una Estrategia con un sistema de gobernanza reforzado es crucial para salir de la crisis y mejorar el modelo europeo de crecimiento. Esperemos que los líderes europeos mantengan esta perspectiva y aprueben en lo que resta de presidencia española un documento con verdadero alcance político. Europa, y sus ciudadanos, lo agradecerán.

Antonio Estella es profesor de Derecho de la Universidad Carlos III de Madrid y Carlos Mulas-Granados es director de la Fundación Ideas.