El negocio de los datos

“La regulación del negocio de los datos”

Sólo un 20% de las bases de datos personales están registradas, Google escapa de la ley de protección de datos y muchas empresas la incumplen sistemáticamente. La Unión Europea prepara una directiva para que toda empresa que preste servicios por internet a personas residentes en Europa tenga que adaptarse a las leyes comunitarias.

Periódico Diagonal
JPG - 609.8 KB

A finales de febrero, el director general de la Policía, Ignacio Cosidó, presentaba el Plan Azul, un programa integral para reforzar la colaboración con la seguridad privada. Según la propia Policía Nacional, el cuerpo lleva 30 años colaborando con el sector privado, que participa de alguna manera en una de cada tres intervenciones. La información recabada por las empresas de seguridad será integrada en los archivos policiales y, a cambio, la Policía Nacional se compromete a facilitarles datos. También se contempla la planificación conjunta de servicios. Cosidó declaró que la colaboración es obligada “en estos momentos de crisis”.

El plan no implica nada nuevo porque, según la Ley 23/1992 de Seguridad Privada, las empresas ya estaban obligadas a compartir información sobre actividades presuntamente delictivas. El abogado David Maeztu indica que “por el tono de las declaraciones, lo que parece es que se va a vender el acceso a la base de datos”. Maeztu aclara que su afirmación es especulativa y que le extrañaría que la Policía llegara a sistematizar “un atentado mayúsculo a nuestros derechos”. Sin embargo, no parece tan descabellado mirando a nuestro alrededor. Poco después de anunciarse el Plan Azul, The Guardian publicaba que el servicio de inteligencia británico ha estado tres décadas suministrando a empresas del sector de la construcción perfiles de trabajadores “izquierdistas o problemáticos”. La misma semana, en Francia, Le Canard enchaîné denunciaba que Ikea había llegado a un acuerdo con la empresa de seguridad privada Sûreté International para consultar los archivos policiales a los que tiene acceso. Por 80 euros la consulta, Ikea podría rastrear los antecedentes de empleados y de clientes que le hubieran puesto una reclamación.

También se conocen proyectos gubernamentales para monitorizar a la ciudadanía, como el sistema SITEL de escuchas telefónicas puesto en marcha por el Gobierno de Aznar y aún vigente o el programa INDECT de la Unión Europea para recoger y procesar datos digitales, que no fue público hasta que lo filtró Wikileaks. En EE UU, la Patriot Act obliga a los servicios en la nube de internet a entregar al Gobierno los datos que requiera, lo cual expone a usuarios de todo el mundo, pues la mayor parte de las empresas de la Web 2.0 están allí. En efecto, “el principal problema para la privacidad no es ya legal sino de norma social”, ya que es usual publicar todos nuestros datos personales en Facebook o en las aplicaciones de Google, según explica Jose Alcántara, autor del libro La sociedad de control (El Cobre, 2008, descargable).

El derecho al olvido en la nube

El 1 de marzo entraba en vigor la nueva política de privacidad de Google, publicitada por la empresa como una simplificación de los términos de servicio que servirá para “aprender más de cada usuario y así mejorar su experiencia de uso”. En la práctica, que Google haya integrado todos los datos de servicios como el buscador, YouTube, Gmail y Google+ supone mayor exactitud para elaborar perfiles de cada usuario. Google refina así su publicidad personalizada, la base de sus ingresos.

Con la proliferación de las redes sociales en internet se está reivindicando cada vez más el “derecho al olvido” sobre los datos que entregamos a cualquier empresa. Según la Ley Orgánica de Protección de Datos (LOPD), tenemos pleno poder sobre ellos y podemos pedir el borrado. Pero este derecho no está tan claro si los datos han sido publicados por otra persona porque puede entrar en conflicto con otros intereses o derechos, como el principio de publicidad o la libertad de información. En esos casos, la Agencia Española de Protección de Datos (AEPD) suele recomendar preservar la fuente original y las hemerotecas y poner fin a la difusión generalizada limitando el acceso. Es decir, por ejemplo, que el dato siga publicado en la web del BOE o de un periódico, pero Google no lo indexe.

Por su parte, Google España alega que no es responsable del motor de búsquedas de Google Inc., sino que se limita a representar a la transnacional en la venta de espacio publicitario en el mercado español. David Maeztu aclara que “Google no está sometido a la LOPD por el ámbito de aplicación”, ya que su sede está en EE UU. El abogado explica que “se ha intentado justificar la competencia de los órganos europeos mediante argumentos más o menos ingeniosos como considerar las cookies dispositivos de tratamiento de datos, pero el problema estaba en el origen de la normativa”. Las leyes de la Unión Europea derivan de una directiva de 1995, cuando internet no tenía mucho que ver con lo que es ahora, y se aplican en función del lugar donde estén los servidores. Los datos quedan sujetos a leyes más laxas de países como EE UU, las economías emergentes de Asia e islas remotas del Pacífico.

Racionalizar la normativa

La Audiencia Nacional, que tiene pendientes 130 reclamaciones de cancelación de datos en Google, se resiste a que la tutela de un derecho dependa del lugar donde se ubiquen los medios técnicos, y ha planteado una batería de preguntas al Tribunal de Justicia de la Unión Europea. La Audiencia quiere un pronunciamiento explícito sobre si las leyes que rigen en la UE se pueden aplicar contra Google. Las respuestas vincularán a todos los Estados miembros.

De cualquier manera, la normativa va a cambiar. En enero, la comisaria europea de Justicia Viviane Reding presentó una propuesta legislativa según la cual todas las empresas que presten servicio en la UE tendrán que acatar sus leyes. Además, Reding quiere que se recojan los mínimos datos y que el usuario sepa en todo momento quién los almacena, cómo y para qué. Según el borrador, los internautas podrán reclamar a las autoridades de protección de su país, que estarán coordinadas con las de otros estados, y las sanciones se endurecerán hasta llegar a multas de un millón de euros o el 2% de las ventas globales anuales de la empresa. Algunas compañías, entre ellas Google, han advertido a la UE de que reglas demasiado estrictas pueden suponer barreras a la innovación tecnológica. Probablemente sufrirá modificaciones durante su tramitación y no se aprobará antes de 2015.

JPG - 634.2 KB
Supercomputer Center Barcelona, donde se encuentra el noveno ordenador más potente del mundo / Foto: Edu Bayer.

Más allá de la web social

El problema del tratamiento de los datos personales no se circunscribe a la Web 2.0. La AEPD lleva a cabo multitud de actuaciones en casos dispares como universidades que exponen las notas de su alumnado o filtraciones por parte de políticos. En 2011 se incrementaron las denuncias un 50% respecto a 2010.

Hay empresas que vulneran la ley sistemáticamente, como Orange, Movistar y Vodafone, sancionadas entre 2009 y 2010 en 139 ocasiones y con 7,7 millones de euros de multa por incluir ilegalmente a ciudadanos en ficheros de morosos. ONO, Endesa, Jazztel, BBVA y el Santander también son habituales en este tipo de infracciones. Además, muchas prefieren escapar al control estatal ubicando sus bases de datos en otros países. Lo pueden hacer automáticamente si se trasladan a sitios donde la AEPD considera que hay una protección adecuada (UE, EE UU, Canadá, Argentina, etc.) o, si no es así, pidiendo un permiso especial. La AEPD ha autorizado transferencias internacionales a Movistar, France Telecom, IBM, Vodafone y a otras grandes empresas que instalan plataformas de telemarketing en países con regulaciones de datos –y laborales– más flexibles.

Las entidades más pequeñas optan simplemente por no respetar la LOPD. Según Maeztu, “cumplir con el contenido íntegro de la ley en el día a día es imposible. Por ejemplo, un abogado debería anotar cada vez que saca un documento en papel de sus ficheros”. Lo mínimo, que es registrar las bases de datos y se puede tramitar gratuitamente por internet, sólo lo hacen el 20% del total de empresas.

Por otro lado, dos sentencias del Tribunal Supremo han anulado la parte de la LOPD que señalaba que, sin consentimiento de su dueño, sólo se podían añadir a ficheros datos personales que vinieran de fuentes accesibles al público. Uno de los dos consorcios de marketing que recurrió al Supremo es, curiosamente, Adigital, la entidad que gestiona la Lista Robinson. A esta lista, que no es de acceso público pero todas las empresas están obligadas a consultar, se pueden apuntar las personas que no quieran recibir publicidad.

La emergencia de una industria

Los datos personales son la materia prima para un modelo empresarial que, asegura Jose Alcántara, es posible por el uso de computadoras para acumularlos y procesarlos. “Con el aumento de la potencia de cálculo, surgen ideas para monetarizarlos, cálculos estadísticos amparados en millones de muestras que permiten predecir consumos masivos y saber cómo reaccionará una persona ante una determinada campaña”.

El colectivo Ippolita criticó en El lado oscuro de Google (Virus, 2010, también descargable) que el algoritmo que regula los resultados del buscador supone una “objetivación del deseo”. En palabras de de K., uno de sus miembros, Google “te dice objetivamente qué tienes que leer” según un cálculo matemático, como Facebook de quién hacerte amigo o Amazon qué libro comprar. “El discurso es supuestamente científico: una realidad objetivamente fundada sobre la masa de datos que esas empresas gestionan por el bien de los usuarios”. Para K., en Google y otros servicios de gestión de datos personales funciona “la dictadura de la mayoría” y se invisibilizan las opciones minoritarias. “Aunque todas las empresas 2.0 dicen estar interesadas en las personalización, buscan la hegemonía: un sólo resultado exacto para ti, para que no tengas que elegir y dejes que sea una máquina la que lo haga”. Frente a las grandes empresas que concentran el control de la memoria en la red, K. recuerda que desde el hacktivismo se opta por pequeñas redes federadas.

Según Alcántara, “cabe preguntarse no ya si se recogerán todos nuestros datos (algo casi inevitable), sino quién tiene acceso y bajo qué condiciones”. Se busca democratizar los ficheros, sobre todo los públicos: “ya que el Estado recoge datos con dinero de los ciudadanos, éstos deben tener acceso libre”, afirma Alcántara. El movimiento Open Data va en esta línea y aboga por la accesibilidad sin copyright ni mecanismos de control. “El Open Data no es una solución a la privacidad, pero sí ayuda a mejorar la vida pública al tiempo que impide la gestación de monopolios que controlen los datos y obtengan leyes a su favor y en detrimento de las personas”, concluye Alcántara.

Los datos no son virtuales

Los datos que están en la nube se hacen tangibles en los datacenters, las instalaciones donde se almacenan y procesan. Los mayores complejos pertenecen a proveedores de alojamiento web como Akamai o OVH. Éstos son las dos que más servidores han declarado, pero se estima que Google, que los mantiene en secreto, posee diez veces más (cerca de un millón). Su localización y su capacidad se oculta alegando motivos de seguridad y de competencia. Cuentan con excelsos mecanismos de protección: cableado doble, subestaciones eléctricas, máquinas de respaldo que replican los datos continuamente, etc.

Los datacenters más grandes del mundo se encuentran en EE UU, con dos excepciones: el de BT en Gales y el de Microsoft en Irlanda. IBM está construyendo uno en China que los superará a todos (576.000 m2). El BBVA acaba de inaugurar en Madrid un centro con 10.000 procesadores que pueden realizar 44 millones de operaciones diarias.

Ilustración: Luis de Mano

Contra la SOPA

Después de tantos años críticando desde EE. UU. a China y otros paises totalitarios por el control y censura de internet hacia sus ciudadanos, ahora pretenden hacer lo mismo.

.

El 24 de enero se vota el supuesto proyecto de ley antipiratería SOPA “Stop Online Piracy Act” (acta para detener la piratería en línea), que no de ja de ser un intento de control y bloqueo de Internet por parte de la administración estadounidense.

A pesar de que inicialmente SOPA trata de controlar supuestos contenidos ilegales en la red, considerando así obras que puedan estar sujetas a derechos de autor, si se aprobara esta ley, sería posible y necesario monitorear y censurar la actividad de Internet en general desde Estados Unidos, y hasta sería posible bloquear contenidos políticos, iniciativas que van en contra de las libertades alcanzadas en todo el mundo occidental. Teniendo en cuenta que muchos de los proveedores de servicios de internet están alojados en EE. UU. el efecto dominó se extendería a todo el mundo.

Así, si se aprueba la ley, además de bloquear los sitios denunciados, el gobierno estadounidense crearía una lista negra con los portales supuestamente infractores para que a estos les fuera prohibido publicar publicidad o incluir sistemas de pago, bloqueando también su actividad comercial.

Video al respecto:

 Aclaración de algunos términos relacionados:

  • ACTA es un tratado internacional (acuerdo comercial) entre unas cuantas naciones y con fines algo similares, mientras que SOPA es una ley esclusivamente estadounidense. Su propuesta es nacional, pero con alcance internacional, mientras que ACTA es internacional en ambos sentidos, por lo que merecen atención especial cada uno.
  • SOPA es más reciente que ACTA,  se deriva del fracaso de Protect-IP y es ahora cuando se va a presentar a su aprobación.

PELIGRA LA NEUTRALIDAD DE LA RED

TELEFÓNICA ESTRENA UNA RED PREFERENCIAL PARA USUARIOS Y PROVEEDORES QUE PAGUEN

La Unión Europea sancionará a España por no consagrar la neutralidad de la red por ley mientras Telefónica empieza a esquivarla.

Simone Santini en Periódico Diagonal
JPG - 66.1 KB

Cuando diseñaron el protocolo de la incipiente internet, los informáticos del California Institute of Technology tomaron una decisión técnica que debía de tener consecuencias políticas. Decidieron que todos los datos que iban a transitar en la red tenían que viajar en “paquetes” de bit, que cada paquete tenía que indicar la dirección del ordenador a que quería ir, y que todos los “nodos” intermedios de la red, todos esos ordenadores en que nuestros datos pasan antes de alcanzarnos, tenían que transmitirlos sin curarse ni de los datos que contenían, ni de su origen, ni de su destino.

Se trata de la llamada neutralidad de la red: la infraestructura de comunicación de internet no interpreta lo que pasa por ella, sino que se ocupa sólo de transmitir “bits”. Interpretarlos es el papel de quien los recibe. A nivel técnico, esta decisión fue fundamental para la evolución de la red, ya que permitió la inclusión de datos no previstos originariamente, como videos o sonido. Con una red no neutral, internet sólo podría transmitir texto.

A nivel social y político, la neutralidad supone que la infraestructura de la red sea verdaderamente democrática: todos los paquetes son iguales simplemente porque el protocolo no tiene instrumentos para poder discriminar entre ellos. Los paquetes de los mensajes del movimiento 15M viajan por los mismos cables, y reciben el mismo tratamiento, que los paquetes de los bancos o del ministerio de interior. No sé si el clima progresista típico de la universidad californiana de los años ‘60 ha influido en estas decisiones, pero es cierto que, en la infraestructura de comunicación de la red, todos somos, de verdad, iguales.

La neutralidad de la red es un requisito imprescindible para que la red sea un bien público, y no un negocio en mano de las empresas. Algunos países, como Finlandia, han entendido tan bien este concepto que han declarado el acceso a una red neutral como un derecho de sus ciudadanos. Incluso en EE UU, patria del neoliberalismo, el regulador de telecomunicación de Telefónica (FCC) se ha resistido a cualquier presión de los operadores de red para privilegiar ciertos contenidos sobre otros. Si los países con una gran cultura tecnológica toman la neutralidad muy en serio otros, donde esta cultura falta, no tanto. En España, la ley sobre la neutralidad de la red no se aprobará en esta legislatura y es muy improbable que salga adelante si el PP gana en noviembre. La UE nos abrirá un expediente.

Mientras tanto, Telefónica estrena Content Delivery Network (CDN), una red “preferencial” para ciertos usuarios y, sobre todo, para ciertos proveedores de contenidos dispuestos a pagar para publicar allí sus páginas. Con esta red, los contenidos de los proveedores que pagan más nos llegarán de manera más rápida y segura. Telefónica está consiguiendo la cuadratura del círculo: cobrar dos veces (a los usuarios y a los proveedores) por el mismo servicio. Mientras tanto, Telefónica ganará el control del tráfico en la red: decidirá quién transitará bien y quién deberá conformarse con una infraestructura más lenta y congestionada.

Para vender esta idea de control, Telefónica está usando una estrategia vieja pero, lamentablemente, siempre eficaz: al principio implementará la novedad simplemente como una mejora sobre el viejo sistema. La “vieja” internet seguirá allí, y la nueva CDN será simplemente una opción para proporcionar un servicio mejor a quien lo quiera, y sólo a quien lo pague. Sabemos muy bien que con el tiempo estas “mejoras” se transforman siempre en camisas de fuerza. Una vez implantado el sistema, y establecido el principio de que los proveedores de Red pueden controlar el tráfico en sus infraestructuras, nada impedirá a Telefónica excluir de sus servicios sitios web que no responden a los criterios que la empresa establece. Durante la próxima JMJ los laicos podrían descubrir que Telefónica se niega a transmitir sus paquetes y que tiene los instrumentos técnicos y legales para hacerlo.

¿ACEPTAREMOS LIMITACIONES EN LA WEB QUE NO ACEPTARÍAMOS EN LA VIDA?

La prensa confunde las redes no-neutrales como CDN (Content Delivery Network) con la técnica conocida de la “replicación”. Con la replicación, una página web con muchos usuarios (por ejemplo la de una red social) replica sus datos en varios servidores. Cada usuario, conectándose a la página, viene dirigido automáticamente al servidor más cercano, consiguiendo un acceso más rápido a los datos.

Por el contrario, CDN es un servicio proporcionado por el proveedor de red, es decir, la prioridad de ciertos sitios será implementada en la misma estructura de la red. Si queremos hacer un paralelo, la replicación es análoga a un productor de automóviles que decide abrir muchos concesionarios para mayor comodidad de sus clientes.

El CDN es análogo al gobierno que en las carreteras cierra algunos carriles y los reserva, con escolta policial, para que los clientes de ciertas marcas lleguen más pronto al concesionario. La primera solución es una normal operación comercial, la segunda desencadenaría, suponemos, las iras de los ciudadanos. Lamentablemente, las empresas nos están acostumbrando a aceptar en internet limitaciones que nunca aceptaríamos en la vida offline. Se trata de una tendencia peligrosa, a la cual hay que oponerse.

Libros VS eBooks

Actualemente la tecnología es fundamental en nuestras vidas, y su incursión en la sociedad abre debates en los que mucha gente busca el enfrentamiento con el pasado. Se abren discusiones sobre si la nueva tecnología se impondrá sobre la vieja, y en el caso de los libros la batalla por imponerse ha comenzado.

Aquí tenemos los datos. Un libro de tapa dura de 18,28€ cuesta producirlo 2,85€, lo que quiere decir que tan sólo el 15,5% del precio son los gastos de producción. Pero en el eBook el porcentaje es aún menor, un eBook de 7,03€ cuesta producirlo 0,35€, que supone tan sólo un 5% del precio del producto. El autor se lleva de media por libro 2,74€ y por eBook 1,49€.

Veamos un caso concreto: la exitosa saga Millenium llegó a vender en todo el mundo 30 millones de libros por tan sólo 1 millón de eBooks.

En 2009 la editoriales ganaron 175,25 millones de € por la venta de libros, en cambio tan sólo 20,61 millones de € por la venta de eBooks.

De todas las personas que se compran un eReader tan sólo el 15% no vuelve a comprar un libro en papel.

Y por último el dato más gracioso de la ilustración: el libro te da un 100% de posibilidades de impresionar a los demás con tu material de lectura, en cambio el eReader te da un 100% de posibilidades de ocultar aquellas lecturas de las que te avergüenzas.

Cómo podemos observar por los datos el libro sigue a la cabeza del mercado muy por delante de los eBooks, que poco a poco ganan terreno. Y es que por mucho que la gente se empeñe en enterrar a uno de los dos yo creo que la convivencia de ambos será eterna, no hay debate sino diversidad, lo que supone un gran benficio para el consumidor que tendrá la libertad de elegir cómo quiere leer.

ENERGÍA NUCLEAR, NI SEGURA… NI BARATA

Se buscan 630 millones para cubrir Chernóbil

El dinero escasea, pese a que la UE ofrece en Kiev otros 110 millones
MANUEL ANSEDE para Público
Barroso, seguido de Yanukovich, en Kiev. -

Barroso, seguido de Yanukovich, en Kiev. -REUTERS

El domingo a medianoche, un trabajador encaramado en la grúa de un camión soviético se afanaba en colocar una bandera ucraniana y otra de la UE en cada farola de la calle Hrushevskogo, en el centro de Kiev. Cuando el vehículo avanzaba a toda mecha, las ramas secas de los árboles sin podar estallaban en la espalda del operario, configurando un martirio público en una de las principales avenidas de la capital de Ucrania.

Hoy se han desvelado las causas de tanto denuedo. La UE desembolsará otros 110 millones de euros para sufragar la construcción de un nuevo sarcófago sobre el reactor número 4 de Chernóbil, protagonista el 26 de abril de 1986 del peor accidente nuclear de la historia. El presidente de la Comisión Europea, José Manuel Durao Barroso, en visita oficial a Kiev, anunció la expedición del nuevo cheque al presidente ucraniano, Viktor Yanukovich, y reclamó la implicación del resto de “socios estratégicos para completar los trabajos del sarcófago antes de 2015”.

Pero, según las cuentas de Thomas Mirow, presidente del Banco Europeo para la Reconstrucción y el Desarrollo (BERD), no es suficiente. Los cálculos de la institución financiera, fundada en 1990 para convertir a los países excomunistas al capitalismo, aseguran que todavía faltarían otros 630 millones de euros. Cuando se cumplen 25 años de la tragedia, Mirow y el Gobierno de Ucrania van a sacudir de nuevo la hucha para despertar a los donantes en una conferencia que arrancará mañana en Kiev.

Más inversión

“Superar una tragedia de esta escala no es posible para un país en solitario”, declaró Yanukovich en una comparecencia conjunta con Barroso. Desde 1997, cuando se creó un Fondo del Sarcófago de Chernóbil gestionado por el BERD y presidido por el hombre que buscaba armas de destrucción masiva en Irak, el sueco Hans Blix, se han recaudado 850 millones de euros. La UE ha puesto 250 y EEUU, unos 180. Alemania ha colaborado con 60 millones de euros. España, con cinco millones. Rusia, heredera de la URSS, apenas ha pagado 15.

El fondo servirá para el sarcófago y almacenar residuos de las piscinas

Ahora, con Japón intentando recuperarse del tsunami del 11 de marzo y la posterior tragedia en la central de Fukushima, y con la UE tiritando tras los rescates de Grecia, Irlanda y Portugal, es difícil adelantar en qué chisteras aparecerán los cientos de millones que faltan. Algunos medios locales cargaron la semana pasada contra el primer ministro ruso Vladímir Putin por “prometer la luna” a Ucrania a cambio de que abandonase su intención de integrarse en la UE.

Pese a su nombre, el Fondo del Sarcófago no servirá sólo para financiar esta campana de acero de más de cien metros de altura y un peso de casi 30.000 toneladas, diseñada para evitar durante un siglo que se produzcan nuevas fugas. Del mismo saco saldrá el dinero para construir una instalación para el almacenamiento de los más de 20.000 elementos de combustible de uranio quemado que todavía se amontonan en las piscinas de los otros tres reactores de Chernóbil. Estas piscinas, de diseño soviético, suponen un riesgo para proceder al desmantelamiento de la central.

La temeridad nuclear

¿Qué ocurriría si el accidente de Fukushima hubiera sido en la inconclusa Central Nuclear de Lemóniz, en el supuesto de que estuviera operativa?

Así sería el área desalojada. Un radio de 40 Km. que, aunque según un organismo nada sospechoso de activismo ecológico como es la OIEA resulta muy escaso, es el que finalmente han aplicado las autoridades japonesas. A esta zona no se podría volver en decenas de años:

¿Y si fuera la central nuclear de Garoña -que sí está operativa- y  cuyo reactor es del mismo modelo que la mayor parte de los de Fukushima, con la que ha venido mantiendo una estrecha relación operativa ?

Esta mapa de abajo representa el área mínima desalojada pero…  ¿estarían tranquilos los habitantes de tres capitales casi equidistantes como Burgos, Vitoria-Gazteiz y Bilbao situados al borde del área más crítica?

Desechos nucleares y otras incógnitas no resueltas de esta peligrosa tecnología:

http://www.rtve.es/television/documentales/la-noche-tematica/videos/

Fuentes: http://mural.uv.es/estojuan/Ejercicio2.html El País y RTVE

Fukushima alcanza a Chernobyl

Un mes minimizando el desastre

La industria atómica y buena parte de las autoridades se han esforzado en señalar las diferencias entre la situación de Fukushima y la que se vivió en Chernóbil, ahora equiparadas en gravedad

JAVIER SALAS, para Público

Aspecto de la central de Fukushima Daiichi el día 20 de marzo, cuando todavía se catalogaba el accidente como de nivel 5. afp
Aspecto de la central de Fukushima Daiichi el día 20 de marzo, cuando todavía se catalogaba el accidente como de nivel 5

Chernóbil. El nombre de una ciudad ucraniana se ha convertido en un concepto clave en la batalla dialéctica que en el último mes han librado antinucleares y pronucleares, también las autoridades y los científicos. No hay dos accidentes nucleares iguales, pero desde que un terremoto tumbara la estabilidad de la central nuclear de Fukushima la referencia en el debate público es si la catástrofe de 1986 y la de 2011 son comparables. Ayer, al elevar la calificación del accidente japonés a nivel 7, el mismo del ucraniano, las autoridades japonesas admitieron que la gravedad, al menos desde el plano técnico, sí es comparable.

“Fukushima no es Chernóbil” es una de las frases más enunciadas en los últimos 30 días, por parte de la industria atómica, expertos y autoridades, como el propio primer ministro japonés, Naoto Kan. Uno de los primeros en negar esas similitudes fue el presidente del Organismo Internacional de la Energía Atómica (OIEA), el nipón Yukiya Amano, en su primera comparecencia tras desatarse la crisis japonesa (el 14 de marzo): “Es muy poco probable que se convierta en algo como Chernóbil”.

Ayer, tras declararse el nivel 7, el portavoz de turno del organismo internacional quiso alejar más aún Japón de Ucrania. “Los accidentes son totalmente distintos; las mecánicas son completamente diferentes”, dijo el subdirector de Seguridad Nuclear, Denis Flory.

En el relato de lo que se ha dicho estos días destacan dos organismos que rompían el discurso de la industria nuclear, Japón y el OIEA. Las agencias de seguridad nuclear de Francia (ASN) y de EEUU (NRC) pusieron muchos peros a las decisiones tomadas por las autoridades.

Críticas francesas

El día 15, el presidente del ASN, André-Claude Lacoste, se mostró convencido de que el incidente propiciado por el tsunami ya era peor que el de Three Mile Island calificado con un nivel 5 de peligrosidad y merecía al menos un 6. “No se sabe hasta qué punto el sistema de contención está dañado -dijo Lacoste-, pero ya no es estanco”. Es decir, el riesgo de emisión descontrolada de materiales radiactivos al exterior era cierto. Mientras tanto, la agencia japonesa (NISA) mantenía la gravedad del accidente en un nivel 4. NISA no elevó su catalogación al 5 hasta el día 18.La NRC también dejó en mal lugar a las autoridades japonesas por minimizar con sus decisiones la gravedad de la situación. Cuando Tokio decidió evacuar a toda la población de un radio de 20 kilómetros en torno a la central averiada, la agencia estadounidense advertía de que, en esas mismas condiciones, su decisión sería la de evacuar un radio de 80 kilómetros.

En España, las críticas del colectivo ecologista se concentran esencialmente en el Foro Nuclear, la asociación que representa los intereses de la industria atómica española. Su presidenta, María Teresa Domínguez, dio una rueda de prensa el 14 de marzo, tras un primer fin de semana de confusión.

“Después de ver las imágenes de la catástrofe en Japón, poder decir que todas las centrales nucleares han parado, están intactas, soportaron el terremoto y no se ha producido un impacto al exterior… Yo creo que todo eso da un mensaje positivo que refuerza a la energía nuclear”, aventuró Domínguez ante una sala abarrotada de periodistas, a los que dijo: “El tiempo va a nuestro favor”. En ese momento, ya se habían producido dos explosiones de hidrógeno en los reactores de Fukushima. Ese lunes se estaba produciendo una gran paradoja: cuanto menos se sabía, más firmes eran las afirmaciones de unos y otros. Fue un día clave para encauzar el tsunami de la opinión pública.

Falta de transparencia

“La industria se ha empeñado en vender que estaba todo controlado desde el día 12, cuando aún no se sabía nada”, lamenta el responsable de la campaña nuclear de Ecologistas en Acción, Francisco Castejón. Este físico nuclear, que se atreve a denunciar que muchos académicos que opinaron estos días viven de la industria, critica la labor de autoridades nacionales e internacionales. “Por ejemplo, tardaron mucho en decirnos que habían encontrado plutonio o que había una piscina única para conservar todo el combustible gastado”, asegura.

Castejón sobre todo lamenta “el discurso del lobby” ahora que se ha demostrado el peligro: “Que no nos digan más veces que van a tomar medidas y que van a aprender de los errores”, reclama.

Otro de los ecologistas que lleva un mes en la batalla antinuclear es Carlos Bravo, de Greenpeace, que ahora recuerda a sus rivales dialécticos: “No sé dónde están todos esos que decían que esto acabaría en nada, que nunca sería como Chernóbil. No han vuelto a aparecer”, critica Bravo.

El radiobiólogo Eduard Rodríguez Farré pone en entredicho el papel de las autoridades internacionales: “No olvidemos que el OIEA no es un organismo de protección, es de fomento del uso pacífico de la energía atómica”. Este investigador del CSIC, presidente de Científicos por el Medio Ambiente, se atrevió a decir, el 15 de marzo, que Fukushima “es un Chernóbil a cámara lenta”. Recibió innumerables críticas, lo mismo que le sucedió al comisario europeo de Energía, Günther Oettinger, cuando habló de escenario “apocalíptico” en Japón.

Rodríguez Farré considera que estas semanas se han seguido los mismos pasos que tras todos los accidentes nucleares: “Primero se minimiza la importancia, y luego aparecen ingenieros y físicos a pontificar sobre el impacto en la salud de la radiación, cuando no es su campo de conocimiento”, critica.