El negocio de los datos

«La regulación del negocio de los datos»

Sólo un 20% de las bases de datos personales están registradas, Google escapa de la ley de protección de datos y muchas empresas la incumplen sistemáticamente. La Unión Europea prepara una directiva para que toda empresa que preste servicios por internet a personas residentes en Europa tenga que adaptarse a las leyes comunitarias.

Periódico Diagonal
JPG - 609.8 KB

A finales de febrero, el director general de la Policía, Ignacio Cosidó, presentaba el Plan Azul, un programa integral para reforzar la colaboración con la seguridad privada. Según la propia Policía Nacional, el cuerpo lleva 30 años colaborando con el sector privado, que participa de alguna manera en una de cada tres intervenciones. La información recabada por las empresas de seguridad será integrada en los archivos policiales y, a cambio, la Policía Nacional se compromete a facilitarles datos. También se contempla la planificación conjunta de servicios. Cosidó declaró que la colaboración es obligada «en estos momentos de crisis».

El plan no implica nada nuevo porque, según la Ley 23/1992 de Seguridad Privada, las empresas ya estaban obligadas a compartir información sobre actividades presuntamente delictivas. El abogado David Maeztu indica que «por el tono de las declaraciones, lo que parece es que se va a vender el acceso a la base de datos». Maeztu aclara que su afirmación es especulativa y que le extrañaría que la Policía llegara a sistematizar «un atentado mayúsculo a nuestros derechos». Sin embargo, no parece tan descabellado mirando a nuestro alrededor. Poco después de anunciarse el Plan Azul, The Guardian publicaba que el servicio de inteligencia británico ha estado tres décadas suministrando a empresas del sector de la construcción perfiles de trabajadores «izquierdistas o problemáticos». La misma semana, en Francia, Le Canard enchaîné denunciaba que Ikea había llegado a un acuerdo con la empresa de seguridad privada Sûreté International para consultar los archivos policiales a los que tiene acceso. Por 80 euros la consulta, Ikea podría rastrear los antecedentes de empleados y de clientes que le hubieran puesto una reclamación.

También se conocen proyectos gubernamentales para monitorizar a la ciudadanía, como el sistema SITEL de escuchas telefónicas puesto en marcha por el Gobierno de Aznar y aún vigente o el programa INDECT de la Unión Europea para recoger y procesar datos digitales, que no fue público hasta que lo filtró Wikileaks. En EE UU, la Patriot Act obliga a los servicios en la nube de internet a entregar al Gobierno los datos que requiera, lo cual expone a usuarios de todo el mundo, pues la mayor parte de las empresas de la Web 2.0 están allí. En efecto, «el principal problema para la privacidad no es ya legal sino de norma social», ya que es usual publicar todos nuestros datos personales en Facebook o en las aplicaciones de Google, según explica Jose Alcántara, autor del libro La sociedad de control (El Cobre, 2008, descargable).

El derecho al olvido en la nube

El 1 de marzo entraba en vigor la nueva política de privacidad de Google, publicitada por la empresa como una simplificación de los términos de servicio que servirá para «aprender más de cada usuario y así mejorar su experiencia de uso». En la práctica, que Google haya integrado todos los datos de servicios como el buscador, YouTube, Gmail y Google+ supone mayor exactitud para elaborar perfiles de cada usuario. Google refina así su publicidad personalizada, la base de sus ingresos.

Con la proliferación de las redes sociales en internet se está reivindicando cada vez más el «derecho al olvido» sobre los datos que entregamos a cualquier empresa. Según la Ley Orgánica de Protección de Datos (LOPD), tenemos pleno poder sobre ellos y podemos pedir el borrado. Pero este derecho no está tan claro si los datos han sido publicados por otra persona porque puede entrar en conflicto con otros intereses o derechos, como el principio de publicidad o la libertad de información. En esos casos, la Agencia Española de Protección de Datos (AEPD) suele recomendar preservar la fuente original y las hemerotecas y poner fin a la difusión generalizada limitando el acceso. Es decir, por ejemplo, que el dato siga publicado en la web del BOE o de un periódico, pero Google no lo indexe.

Por su parte, Google España alega que no es responsable del motor de búsquedas de Google Inc., sino que se limita a representar a la transnacional en la venta de espacio publicitario en el mercado español. David Maeztu aclara que «Google no está sometido a la LOPD por el ámbito de aplicación», ya que su sede está en EE UU. El abogado explica que «se ha intentado justificar la competencia de los órganos europeos mediante argumentos más o menos ingeniosos como considerar las cookies dispositivos de tratamiento de datos, pero el problema estaba en el origen de la normativa». Las leyes de la Unión Europea derivan de una directiva de 1995, cuando internet no tenía mucho que ver con lo que es ahora, y se aplican en función del lugar donde estén los servidores. Los datos quedan sujetos a leyes más laxas de países como EE UU, las economías emergentes de Asia e islas remotas del Pacífico.

Racionalizar la normativa

La Audiencia Nacional, que tiene pendientes 130 reclamaciones de cancelación de datos en Google, se resiste a que la tutela de un derecho dependa del lugar donde se ubiquen los medios técnicos, y ha planteado una batería de preguntas al Tribunal de Justicia de la Unión Europea. La Audiencia quiere un pronunciamiento explícito sobre si las leyes que rigen en la UE se pueden aplicar contra Google. Las respuestas vincularán a todos los Estados miembros.

De cualquier manera, la normativa va a cambiar. En enero, la comisaria europea de Justicia Viviane Reding presentó una propuesta legislativa según la cual todas las empresas que presten servicio en la UE tendrán que acatar sus leyes. Además, Reding quiere que se recojan los mínimos datos y que el usuario sepa en todo momento quién los almacena, cómo y para qué. Según el borrador, los internautas podrán reclamar a las autoridades de protección de su país, que estarán coordinadas con las de otros estados, y las sanciones se endurecerán hasta llegar a multas de un millón de euros o el 2% de las ventas globales anuales de la empresa. Algunas compañías, entre ellas Google, han advertido a la UE de que reglas demasiado estrictas pueden suponer barreras a la innovación tecnológica. Probablemente sufrirá modificaciones durante su tramitación y no se aprobará antes de 2015.

JPG - 634.2 KB
Supercomputer Center Barcelona, donde se encuentra el noveno ordenador más potente del mundo / Foto: Edu Bayer.

Más allá de la web social

El problema del tratamiento de los datos personales no se circunscribe a la Web 2.0. La AEPD lleva a cabo multitud de actuaciones en casos dispares como universidades que exponen las notas de su alumnado o filtraciones por parte de políticos. En 2011 se incrementaron las denuncias un 50% respecto a 2010.

Hay empresas que vulneran la ley sistemáticamente, como Orange, Movistar y Vodafone, sancionadas entre 2009 y 2010 en 139 ocasiones y con 7,7 millones de euros de multa por incluir ilegalmente a ciudadanos en ficheros de morosos. ONO, Endesa, Jazztel, BBVA y el Santander también son habituales en este tipo de infracciones. Además, muchas prefieren escapar al control estatal ubicando sus bases de datos en otros países. Lo pueden hacer automáticamente si se trasladan a sitios donde la AEPD considera que hay una protección adecuada (UE, EE UU, Canadá, Argentina, etc.) o, si no es así, pidiendo un permiso especial. La AEPD ha autorizado transferencias internacionales a Movistar, France Telecom, IBM, Vodafone y a otras grandes empresas que instalan plataformas de telemarketing en países con regulaciones de datos –y laborales– más flexibles.

Las entidades más pequeñas optan simplemente por no respetar la LOPD. Según Maeztu, «cumplir con el contenido íntegro de la ley en el día a día es imposible. Por ejemplo, un abogado debería anotar cada vez que saca un documento en papel de sus ficheros». Lo mínimo, que es registrar las bases de datos y se puede tramitar gratuitamente por internet, sólo lo hacen el 20% del total de empresas.

Por otro lado, dos sentencias del Tribunal Supremo han anulado la parte de la LOPD que señalaba que, sin consentimiento de su dueño, sólo se podían añadir a ficheros datos personales que vinieran de fuentes accesibles al público. Uno de los dos consorcios de marketing que recurrió al Supremo es, curiosamente, Adigital, la entidad que gestiona la Lista Robinson. A esta lista, que no es de acceso público pero todas las empresas están obligadas a consultar, se pueden apuntar las personas que no quieran recibir publicidad.

La emergencia de una industria

Los datos personales son la materia prima para un modelo empresarial que, asegura Jose Alcántara, es posible por el uso de computadoras para acumularlos y procesarlos. «Con el aumento de la potencia de cálculo, surgen ideas para monetarizarlos, cálculos estadísticos amparados en millones de muestras que permiten predecir consumos masivos y saber cómo reaccionará una persona ante una determinada campaña”.

El colectivo Ippolita criticó en El lado oscuro de Google (Virus, 2010, también descargable) que el algoritmo que regula los resultados del buscador supone una «objetivación del deseo». En palabras de de K., uno de sus miembros, Google «te dice objetivamente qué tienes que leer» según un cálculo matemático, como Facebook de quién hacerte amigo o Amazon qué libro comprar. «El discurso es supuestamente científico: una realidad objetivamente fundada sobre la masa de datos que esas empresas gestionan por el bien de los usuarios». Para K., en Google y otros servicios de gestión de datos personales funciona «la dictadura de la mayoría» y se invisibilizan las opciones minoritarias. «Aunque todas las empresas 2.0 dicen estar interesadas en las personalización, buscan la hegemonía: un sólo resultado exacto para ti, para que no tengas que elegir y dejes que sea una máquina la que lo haga». Frente a las grandes empresas que concentran el control de la memoria en la red, K. recuerda que desde el hacktivismo se opta por pequeñas redes federadas.

Según Alcántara, «cabe preguntarse no ya si se recogerán todos nuestros datos (algo casi inevitable), sino quién tiene acceso y bajo qué condiciones». Se busca democratizar los ficheros, sobre todo los públicos: «ya que el Estado recoge datos con dinero de los ciudadanos, éstos deben tener acceso libre», afirma Alcántara. El movimiento Open Data va en esta línea y aboga por la accesibilidad sin copyright ni mecanismos de control. «El Open Data no es una solución a la privacidad, pero sí ayuda a mejorar la vida pública al tiempo que impide la gestación de monopolios que controlen los datos y obtengan leyes a su favor y en detrimento de las personas», concluye Alcántara.

Los datos no son virtuales

Los datos que están en la nube se hacen tangibles en los datacenters, las instalaciones donde se almacenan y procesan. Los mayores complejos pertenecen a proveedores de alojamiento web como Akamai o OVH. Éstos son las dos que más servidores han declarado, pero se estima que Google, que los mantiene en secreto, posee diez veces más (cerca de un millón). Su localización y su capacidad se oculta alegando motivos de seguridad y de competencia. Cuentan con excelsos mecanismos de protección: cableado doble, subestaciones eléctricas, máquinas de respaldo que replican los datos continuamente, etc.

Los datacenters más grandes del mundo se encuentran en EE UU, con dos excepciones: el de BT en Gales y el de Microsoft en Irlanda. IBM está construyendo uno en China que los superará a todos (576.000 m2). El BBVA acaba de inaugurar en Madrid un centro con 10.000 procesadores que pueden realizar 44 millones de operaciones diarias.

Ilustración: Luis de Mano

Contra la SOPA

Después de tantos años críticando desde EE. UU. a China y otros paises totalitarios por el control y censura de internet hacia sus ciudadanos, ahora pretenden hacer lo mismo.

.

El 24 de enero se vota el supuesto proyecto de ley antipiratería SOPA «Stop Online Piracy Act» (acta para detener la piratería en línea), que no de ja de ser un intento de control y bloqueo de Internet por parte de la administración estadounidense.

A pesar de que inicialmente SOPA trata de controlar supuestos contenidos ilegales en la red, considerando así obras que puedan estar sujetas a derechos de autor, si se aprobara esta ley, sería posible y necesario monitorear y censurar la actividad de Internet en general desde Estados Unidos, y hasta sería posible bloquear contenidos políticos, iniciativas que van en contra de las libertades alcanzadas en todo el mundo occidental. Teniendo en cuenta que muchos de los proveedores de servicios de internet están alojados en EE. UU. el efecto dominó se extendería a todo el mundo.

Así, si se aprueba la ley, además de bloquear los sitios denunciados, el gobierno estadounidense crearía una lista negra con los portales supuestamente infractores para que a estos les fuera prohibido publicar publicidad o incluir sistemas de pago, bloqueando también su actividad comercial.

Video al respecto:

 Aclaración de algunos términos relacionados:

  • ACTA es un tratado internacional (acuerdo comercial) entre unas cuantas naciones y con fines algo similares, mientras que SOPA es una ley esclusivamente estadounidense. Su propuesta es nacional, pero con alcance internacional, mientras que ACTA es internacional en ambos sentidos, por lo que merecen atención especial cada uno.
  • SOPA es más reciente que ACTA,  se deriva del fracaso de Protect-IP y es ahora cuando se va a presentar a su aprobación.

PELIGRA LA NEUTRALIDAD DE LA RED

TELEFÓNICA ESTRENA UNA RED PREFERENCIAL PARA USUARIOS Y PROVEEDORES QUE PAGUEN

La Unión Europea sancionará a España por no consagrar la neutralidad de la red por ley mientras Telefónica empieza a esquivarla.

Simone Santini en Periódico Diagonal
JPG - 66.1 KB

Cuando diseñaron el protocolo de la incipiente internet, los informáticos del California Institute of Technology tomaron una decisión técnica que debía de tener consecuencias políticas. Decidieron que todos los datos que iban a transitar en la red tenían que viajar en “paquetes” de bit, que cada paquete tenía que indicar la dirección del ordenador a que quería ir, y que todos los “nodos” intermedios de la red, todos esos ordenadores en que nuestros datos pasan antes de alcanzarnos, tenían que transmitirlos sin curarse ni de los datos que contenían, ni de su origen, ni de su destino.

Se trata de la llamada neutralidad de la red: la infraestructura de comunicación de internet no interpreta lo que pasa por ella, sino que se ocupa sólo de transmitir “bits”. Interpretarlos es el papel de quien los recibe. A nivel técnico, esta decisión fue fundamental para la evolución de la red, ya que permitió la inclusión de datos no previstos originariamente, como videos o sonido. Con una red no neutral, internet sólo podría transmitir texto.

A nivel social y político, la neutralidad supone que la infraestructura de la red sea verdaderamente democrática: todos los paquetes son iguales simplemente porque el protocolo no tiene instrumentos para poder discriminar entre ellos. Los paquetes de los mensajes del movimiento 15M viajan por los mismos cables, y reciben el mismo tratamiento, que los paquetes de los bancos o del ministerio de interior. No sé si el clima progresista típico de la universidad californiana de los años ‘60 ha influido en estas decisiones, pero es cierto que, en la infraestructura de comunicación de la red, todos somos, de verdad, iguales.

La neutralidad de la red es un requisito imprescindible para que la red sea un bien público, y no un negocio en mano de las empresas. Algunos países, como Finlandia, han entendido tan bien este concepto que han declarado el acceso a una red neutral como un derecho de sus ciudadanos. Incluso en EE UU, patria del neoliberalismo, el regulador de telecomunicación de Telefónica (FCC) se ha resistido a cualquier presión de los operadores de red para privilegiar ciertos contenidos sobre otros. Si los países con una gran cultura tecnológica toman la neutralidad muy en serio otros, donde esta cultura falta, no tanto. En España, la ley sobre la neutralidad de la red no se aprobará en esta legislatura y es muy improbable que salga adelante si el PP gana en noviembre. La UE nos abrirá un expediente.

Mientras tanto, Telefónica estrena Content Delivery Network (CDN), una red “preferencial” para ciertos usuarios y, sobre todo, para ciertos proveedores de contenidos dispuestos a pagar para publicar allí sus páginas. Con esta red, los contenidos de los proveedores que pagan más nos llegarán de manera más rápida y segura. Telefónica está consiguiendo la cuadratura del círculo: cobrar dos veces (a los usuarios y a los proveedores) por el mismo servicio. Mientras tanto, Telefónica ganará el control del tráfico en la red: decidirá quién transitará bien y quién deberá conformarse con una infraestructura más lenta y congestionada.

Para vender esta idea de control, Telefónica está usando una estrategia vieja pero, lamentablemente, siempre eficaz: al principio implementará la novedad simplemente como una mejora sobre el viejo sistema. La “vieja” internet seguirá allí, y la nueva CDN será simplemente una opción para proporcionar un servicio mejor a quien lo quiera, y sólo a quien lo pague. Sabemos muy bien que con el tiempo estas “mejoras” se transforman siempre en camisas de fuerza. Una vez implantado el sistema, y establecido el principio de que los proveedores de Red pueden controlar el tráfico en sus infraestructuras, nada impedirá a Telefónica excluir de sus servicios sitios web que no responden a los criterios que la empresa establece. Durante la próxima JMJ los laicos podrían descubrir que Telefónica se niega a transmitir sus paquetes y que tiene los instrumentos técnicos y legales para hacerlo.

¿ACEPTAREMOS LIMITACIONES EN LA WEB QUE NO ACEPTARÍAMOS EN LA VIDA?

La prensa confunde las redes no-neutrales como CDN (Content Delivery Network) con la técnica conocida de la “replicación”. Con la replicación, una página web con muchos usuarios (por ejemplo la de una red social) replica sus datos en varios servidores. Cada usuario, conectándose a la página, viene dirigido automáticamente al servidor más cercano, consiguiendo un acceso más rápido a los datos.

Por el contrario, CDN es un servicio proporcionado por el proveedor de red, es decir, la prioridad de ciertos sitios será implementada en la misma estructura de la red. Si queremos hacer un paralelo, la replicación es análoga a un productor de automóviles que decide abrir muchos concesionarios para mayor comodidad de sus clientes.

El CDN es análogo al gobierno que en las carreteras cierra algunos carriles y los reserva, con escolta policial, para que los clientes de ciertas marcas lleguen más pronto al concesionario. La primera solución es una normal operación comercial, la segunda desencadenaría, suponemos, las iras de los ciudadanos. Lamentablemente, las empresas nos están acostumbrando a aceptar en internet limitaciones que nunca aceptaríamos en la vida offline. Se trata de una tendencia peligrosa, a la cual hay que oponerse.

Libros VS eBooks

Actualemente la tecnología es fundamental en nuestras vidas, y su incursión en la sociedad abre debates en los que mucha gente busca el enfrentamiento con el pasado. Se abren discusiones sobre si la nueva tecnología se impondrá sobre la vieja, y en el caso de los libros la batalla por imponerse ha comenzado.

Aquí tenemos los datos. Un libro de tapa dura de 18,28€ cuesta producirlo 2,85€, lo que quiere decir que tan sólo el 15,5% del precio son los gastos de producción. Pero en el eBook el porcentaje es aún menor, un eBook de 7,03€ cuesta producirlo 0,35€, que supone tan sólo un 5% del precio del producto. El autor se lleva de media por libro 2,74€ y por eBook 1,49€.

Veamos un caso concreto: la exitosa saga Millenium llegó a vender en todo el mundo 30 millones de libros por tan sólo 1 millón de eBooks.

En 2009 la editoriales ganaron 175,25 millones de € por la venta de libros, en cambio tan sólo 20,61 millones de € por la venta de eBooks.

De todas las personas que se compran un eReader tan sólo el 15% no vuelve a comprar un libro en papel.

Y por último el dato más gracioso de la ilustración: el libro te da un 100% de posibilidades de impresionar a los demás con tu material de lectura, en cambio el eReader te da un 100% de posibilidades de ocultar aquellas lecturas de las que te avergüenzas.

Cómo podemos observar por los datos el libro sigue a la cabeza del mercado muy por delante de los eBooks, que poco a poco ganan terreno. Y es que por mucho que la gente se empeñe en enterrar a uno de los dos yo creo que la convivencia de ambos será eterna, no hay debate sino diversidad, lo que supone un gran benficio para el consumidor que tendrá la libertad de elegir cómo quiere leer.

ENERGÍA NUCLEAR, NI SEGURA… NI BARATA

Se buscan 630 millones para cubrir Chernóbil

El dinero escasea, pese a que la UE ofrece en Kiev otros 110 millones
MANUEL ANSEDE para Público
Barroso, seguido de Yanukovich, en Kiev. -

Barroso, seguido de Yanukovich, en Kiev. -REUTERS

El domingo a medianoche, un trabajador encaramado en la grúa de un camión soviético se afanaba en colocar una bandera ucraniana y otra de la UE en cada farola de la calle Hrushevskogo, en el centro de Kiev. Cuando el vehículo avanzaba a toda mecha, las ramas secas de los árboles sin podar estallaban en la espalda del operario, configurando un martirio público en una de las principales avenidas de la capital de Ucrania.

Hoy se han desvelado las causas de tanto denuedo. La UE desembolsará otros 110 millones de euros para sufragar la construcción de un nuevo sarcófago sobre el reactor número 4 de Chernóbil, protagonista el 26 de abril de 1986 del peor accidente nuclear de la historia. El presidente de la Comisión Europea, José Manuel Durao Barroso, en visita oficial a Kiev, anunció la expedición del nuevo cheque al presidente ucraniano, Viktor Yanukovich, y reclamó la implicación del resto de «socios estratégicos para completar los trabajos del sarcófago antes de 2015».

Pero, según las cuentas de Thomas Mirow, presidente del Banco Europeo para la Reconstrucción y el Desarrollo (BERD), no es suficiente. Los cálculos de la institución financiera, fundada en 1990 para convertir a los países excomunistas al capitalismo, aseguran que todavía faltarían otros 630 millones de euros. Cuando se cumplen 25 años de la tragedia, Mirow y el Gobierno de Ucrania van a sacudir de nuevo la hucha para despertar a los donantes en una conferencia que arrancará mañana en Kiev.

Más inversión

«Superar una tragedia de esta escala no es posible para un país en solitario», declaró Yanukovich en una comparecencia conjunta con Barroso. Desde 1997, cuando se creó un Fondo del Sarcófago de Chernóbil gestionado por el BERD y presidido por el hombre que buscaba armas de destrucción masiva en Irak, el sueco Hans Blix, se han recaudado 850 millones de euros. La UE ha puesto 250 y EEUU, unos 180. Alemania ha colaborado con 60 millones de euros. España, con cinco millones. Rusia, heredera de la URSS, apenas ha pagado 15.

El fondo servirá para el sarcófago y almacenar residuos de las piscinas

Ahora, con Japón intentando recuperarse del tsunami del 11 de marzo y la posterior tragedia en la central de Fukushima, y con la UE tiritando tras los rescates de Grecia, Irlanda y Portugal, es difícil adelantar en qué chisteras aparecerán los cientos de millones que faltan. Algunos medios locales cargaron la semana pasada contra el primer ministro ruso Vladímir Putin por «prometer la luna» a Ucrania a cambio de que abandonase su intención de integrarse en la UE.

Pese a su nombre, el Fondo del Sarcófago no servirá sólo para financiar esta campana de acero de más de cien metros de altura y un peso de casi 30.000 toneladas, diseñada para evitar durante un siglo que se produzcan nuevas fugas. Del mismo saco saldrá el dinero para construir una instalación para el almacenamiento de los más de 20.000 elementos de combustible de uranio quemado que todavía se amontonan en las piscinas de los otros tres reactores de Chernóbil. Estas piscinas, de diseño soviético, suponen un riesgo para proceder al desmantelamiento de la central.

La temeridad nuclear

¿Qué ocurriría si el accidente de Fukushima hubiera sido en la inconclusa Central Nuclear de Lemóniz, en el supuesto de que estuviera operativa?

Así sería el área desalojada. Un radio de 40 Km. que, aunque según un organismo nada sospechoso de activismo ecológico como es la OIEA resulta muy escaso, es el que finalmente han aplicado las autoridades japonesas. A esta zona no se podría volver en decenas de años:

¿Y si fuera la central nuclear de Garoña -que sí está operativa- y  cuyo reactor es del mismo modelo que la mayor parte de los de Fukushima, con la que ha venido mantiendo una estrecha relación operativa ?

Esta mapa de abajo representa el área mínima desalojada pero…  ¿estarían tranquilos los habitantes de tres capitales casi equidistantes como Burgos, Vitoria-Gazteiz y Bilbao situados al borde del área más crítica?

Desechos nucleares y otras incógnitas no resueltas de esta peligrosa tecnología:

http://www.rtve.es/television/documentales/la-noche-tematica/videos/

Fuentes: http://mural.uv.es/estojuan/Ejercicio2.html El País y RTVE

Fukushima alcanza a Chernobyl

Un mes minimizando el desastre

La industria atómica y buena parte de las autoridades se han esforzado en señalar las diferencias entre la situación de Fukushima y la que se vivió en Chernóbil, ahora equiparadas en gravedad

JAVIER SALAS, para Público

Aspecto de la central de Fukushima Daiichi el día 20 de marzo, cuando todavía se catalogaba el accidente como de nivel 5. afp
Aspecto de la central de Fukushima Daiichi el día 20 de marzo, cuando todavía se catalogaba el accidente como de nivel 5

Chernóbil. El nombre de una ciudad ucraniana se ha convertido en un concepto clave en la batalla dialéctica que en el último mes han librado antinucleares y pronucleares, también las autoridades y los científicos. No hay dos accidentes nucleares iguales, pero desde que un terremoto tumbara la estabilidad de la central nuclear de Fukushima la referencia en el debate público es si la catástrofe de 1986 y la de 2011 son comparables. Ayer, al elevar la calificación del accidente japonés a nivel 7, el mismo del ucraniano, las autoridades japonesas admitieron que la gravedad, al menos desde el plano técnico, sí es comparable.

«Fukushima no es Chernóbil» es una de las frases más enunciadas en los últimos 30 días, por parte de la industria atómica, expertos y autoridades, como el propio primer ministro japonés, Naoto Kan. Uno de los primeros en negar esas similitudes fue el presidente del Organismo Internacional de la Energía Atómica (OIEA), el nipón Yukiya Amano, en su primera comparecencia tras desatarse la crisis japonesa (el 14 de marzo): «Es muy poco probable que se convierta en algo como Chernóbil».

Ayer, tras declararse el nivel 7, el portavoz de turno del organismo internacional quiso alejar más aún Japón de Ucrania. «Los accidentes son totalmente distintos; las mecánicas son completamente diferentes», dijo el subdirector de Seguridad Nuclear, Denis Flory.

En el relato de lo que se ha dicho estos días destacan dos organismos que rompían el discurso de la industria nuclear, Japón y el OIEA. Las agencias de seguridad nuclear de Francia (ASN) y de EEUU (NRC) pusieron muchos peros a las decisiones tomadas por las autoridades.

Críticas francesas

El día 15, el presidente del ASN, André-Claude Lacoste, se mostró convencido de que el incidente propiciado por el tsunami ya era peor que el de Three Mile Island calificado con un nivel 5 de peligrosidad y merecía al menos un 6. «No se sabe hasta qué punto el sistema de contención está dañado -dijo Lacoste-, pero ya no es estanco». Es decir, el riesgo de emisión descontrolada de materiales radiactivos al exterior era cierto. Mientras tanto, la agencia japonesa (NISA) mantenía la gravedad del accidente en un nivel 4. NISA no elevó su catalogación al 5 hasta el día 18.La NRC también dejó en mal lugar a las autoridades japonesas por minimizar con sus decisiones la gravedad de la situación. Cuando Tokio decidió evacuar a toda la población de un radio de 20 kilómetros en torno a la central averiada, la agencia estadounidense advertía de que, en esas mismas condiciones, su decisión sería la de evacuar un radio de 80 kilómetros.

En España, las críticas del colectivo ecologista se concentran esencialmente en el Foro Nuclear, la asociación que representa los intereses de la industria atómica española. Su presidenta, María Teresa Domínguez, dio una rueda de prensa el 14 de marzo, tras un primer fin de semana de confusión.

«Después de ver las imágenes de la catástrofe en Japón, poder decir que todas las centrales nucleares han parado, están intactas, soportaron el terremoto y no se ha producido un impacto al exterior… Yo creo que todo eso da un mensaje positivo que refuerza a la energía nuclear», aventuró Domínguez ante una sala abarrotada de periodistas, a los que dijo: «El tiempo va a nuestro favor». En ese momento, ya se habían producido dos explosiones de hidrógeno en los reactores de Fukushima. Ese lunes se estaba produciendo una gran paradoja: cuanto menos se sabía, más firmes eran las afirmaciones de unos y otros. Fue un día clave para encauzar el tsunami de la opinión pública.

Falta de transparencia

«La industria se ha empeñado en vender que estaba todo controlado desde el día 12, cuando aún no se sabía nada», lamenta el responsable de la campaña nuclear de Ecologistas en Acción, Francisco Castejón. Este físico nuclear, que se atreve a denunciar que muchos académicos que opinaron estos días viven de la industria, critica la labor de autoridades nacionales e internacionales. «Por ejemplo, tardaron mucho en decirnos que habían encontrado plutonio o que había una piscina única para conservar todo el combustible gastado», asegura.

Castejón sobre todo lamenta «el discurso del lobby» ahora que se ha demostrado el peligro: «Que no nos digan más veces que van a tomar medidas y que van a aprender de los errores», reclama.

Otro de los ecologistas que lleva un mes en la batalla antinuclear es Carlos Bravo, de Greenpeace, que ahora recuerda a sus rivales dialécticos: «No sé dónde están todos esos que decían que esto acabaría en nada, que nunca sería como Chernóbil. No han vuelto a aparecer», critica Bravo.

El radiobiólogo Eduard Rodríguez Farré pone en entredicho el papel de las autoridades internacionales: «No olvidemos que el OIEA no es un organismo de protección, es de fomento del uso pacífico de la energía atómica». Este investigador del CSIC, presidente de Científicos por el Medio Ambiente, se atrevió a decir, el 15 de marzo, que Fukushima «es un Chernóbil a cámara lenta». Recibió innumerables críticas, lo mismo que le sucedió al comisario europeo de Energía, Günther Oettinger, cuando habló de escenario «apocalíptico» en Japón.

Rodríguez Farré considera que estas semanas se han seguido los mismos pasos que tras todos los accidentes nucleares: «Primero se minimiza la importancia, y luego aparecen ingenieros y físicos a pontificar sobre el impacto en la salud de la radiación, cuando no es su campo de conocimiento», critica.

Fukushima: continúa la pesadilla

FRANCISCO CASTEJÓN  |  DOCTOR EN FÍSICAS E INVESTIGADOR DEL CIEMAT

El sufrimiento de la población japonesa se ve agravado por los nuevos sucesos de Fukushima-Daiichi. Al riesgo de fusión completa de los reactores 2 y 3, al peligro de descontrol de la reacción nuclear, a la nube radiactiva que afecta a miles de personas, hay que sumar ahora los vertidos de agua contaminada al océano. Se trata del vertido voluntario de unas 11.500 toneladas de agua radiactiva y del vertido accidental de agua altamente radiactiva que ha durado más de 48 horas, a razón de unos 7.000 litros a la hora, y que procede del reactor número 2.

El vertido voluntario procede del enfriamiento de los reactores y está contaminado sobre todo por radionucleidos ligeros como iodo, que emitirá radiactividad durante unos 160 días, y de cesio, que será radiotóxico durante unos 120 años.
El vertido de estas 11.500 toneladas se produce para habilitar espacio destinado a almacenar líquidos aún más radiactivos como el agua que se ha estado fugando del reactor número 2. La fuga accidental, mucho más grave, se intentó controlar mediante la inyección de hormigón, sin éxito, y posteriormente con la inyección de polímetros absorbentes, también sin éxito. Finalmente se ha conseguido frenar mediante un compuesto de silicato sódico. La contaminación radiactiva de este agua es gigantesca. No está clara su procedencia, pero todo indica que ha debido estar en contacto con el núcleo o con el combustible gastado. Es la única forma de entender los altos niveles de contaminación que lleva. Si este agua ha arrastrado consigo compuestos procedentes del combustible gastado, la radiactividad podría persistir durante miles de años.
El vertido de las 11.500 toneladas cabe achacarlo a la falta de previsión de la empresa Tepco, que refrigeró los reactores con agua de mar sin haber habilitado suficiente espacio para almacenarla. Este agua debería haber sido tratada como un residuo radiactivo y guardarla como tal. Pero la falta de espacio obligó a la evacuación.
Los vertidos accidental y voluntario de agua radiactiva constituyen dos hechos muy graves que introducen una nueva variable en el que ya es el segundo accidente nuclear más grave de todos los tiempos.
La contaminación afectará a los ecosistemas marinos y es muy difícil evaluar sus efectos puesto que no existen precedentes de este tipo de contaminación.
Pero es claro que las sustancias radiactivas tendrán gran impacto en los ecosistemas marinos hasta que el agua se diluya lo suficiente para que los niveles de radiactividad sean admisibles.
La extensión de la contaminación dependerá de la distribución de las corrientes en la zona y va a afectar a grandes extensiones del fondo marino, probablemente a cientos de kilómetros cuadrados. A esto hay que añadir el hecho de que los peces se desplazarán extendiendo la radiactividad mucho más allá de la zona del escape. También son escasos los estudios del efecto de la radiactividad sobre los seres vivos no humanos, en particular, sobre los peces y las algas. Pero sí se conoce la gran capacidad de mutar de los peces, por lo que es seguro que la fauna y flora marinas se verán gravemente afectadas. No sabemos la superficie de estas zonas contaminadas, pero es posible que se extienda a cientos de kilómetros. Los mecanismos de difusión de la contaminación en el mar son muy poco conocidos y dependen desde luego de las corrientes, pero también de los movimientos de la fauna marina. Pero además hay que tener en cuenta el efecto de la acumulación de la contaminación en las cadenas tróficas. El adagio de el pez grande se come al chico, debería leerse más bien como el pez grande se come muchos peces chicos, cada uno con su aportación radiactiva, de tal forma que los individuos que se sitúan en las posiciones más altas de las cadenas tróficas son los que más radiactividad acumulan. Y, no hay que olvidarlo, el eslabón final de esa cadena es el ser humano.
La contaminación del océano y de los bancos pesqueros de la zona introduce una nueva variable en el accidente de Fukushima. Se desconoce cual será el alcance y los efectos de estos vertidos, aunque parece claro que impedirá el consumo del pescado procedente de Japón de forma normal. La contaminación fuerza una veda de la pesca en la zona por tiempo indefinido. Aún cuando se detecte en el futuro que la radiactividad ha caído, será necesario controlar el pescado capturado en esos bancos para ver si es apto para el consumo.
La catástrofe es doble. Por un lado afecta a la economía pesquera japonesa y, por otro, inflinge un daño aún desconocido a los ecosistemas marinos. El accidente de Fukushima está mostrando riesgos nuevos de la energía nuclear. Las nube radiactiva de Chernobil se desplazó por buena parte del mundo, en parte debido a las corrientes de aire, pero también debido al vuelo de las aves migratorias contaminadas. En Fukushima se va a aprender, pagando un alto precio, cómo se difunde la radiactividad en el medio marino. Los efectos son verdaderamente catastróficos y superan los temores de no pocos expertos. El problema es que muchas centrales nucleares en el mundo están cerca de la costa y el episodio de contaminación marítima añade una afección nueva a los efectos de los accidentes nucleares.
El tsunami que causó el accidente de Fukushima era improbable, pero finalmente ocurrió. Está claro que la industria nuclear no puede preverlo todo y que los sucesos extremos, aunque improbables, causan unos efectos tan catastróficos que lo más sensato es prescindir de esta energía lo antes posible.

LA HISTORIA DE JAPÓN CAMBIÓ EN FUKUSHIMA

Alejandro Nadal – Consejo Científico de ATTAC

Fukushima es peor que Hiroshima y Nagasaki, dijo una sobreviviente del terremoto y del tsunami.

– ¿Por qué piensa eso?, le preguntaron.
– Porque Hiroshima y Nagasaki son el pasado, pero Fukushima es el futuro.

El 10 de diciembre del año pasado, la delegación japonesa en la cumbre sobre cambio climático en Cancún anunció que Japón no renovaría sus metas cuantitativas para reducir emisiones de gases de efecto invernadero más allá de la expiración de 2012. En otras palabras, Japón no aceptaría una extensión del Protocolo de Kioto.

La conferencia de Cancún constituía un momento clave para decidir sobre el futuro del protocolo de Kioto que expira en 2012. La delegación japonesa remató diciendo que ahora lo importante era el (mal) llamado acuerdo de Copenhague, en el que los compromisos vinculantes son inexistentes. Esta toma de posición del gobierno del Partido Democrático de Japón le hace el juego al complejo de industrias intensivas en energía (siderúrgica, aluminio, vidrio) que son clave en la política de ese país. Las empresas en estas ramas de la industria quieren ganar tiempo para amortizar las inversiones que ya han realizado con tecnologías intensivas en energía.

Por su parte, la industria nuclear nipona soñaba con más subsidios que pudieran alimentar sus planes de expansión y con poder arrinconar una parte del importante mercado nuclear que se desarrolla en Asia, sobre todo en China. Claramente, el desastre en Fukushima ha hecho pedazos estos sueños de expansión.

Quizás lo único que queda claro en este enredo entre la política energética y ambiental de Japón es que si ese país va a avanzar hacia una combinación energética menos agresiva con el medio ambiente, se va a tener que terminar el compadrazgo existente entre el gobierno y las agencias regulatorias, por un lado, y el lobby nuclear y el de las industrias intensivas en energía, por el otro. En Japón, la alianza de la casta política con el shogunato de los grandes grupos corporativos ha dejado ya una larga estela de engaños que nadie puede olvidar. Fukushima es el escenario del último episodio.

Ni el gobierno japonés, ni el operador de la planta (Tokyo Electric Power Company, TEPCO), ni la agencia internacional de energía atómica (AIEA), han podido ofrecer una versión consistente sobre lo ocurrido en Fukushima. La información sobre los seis reactores de Fukushima proporcionada por TEPCO y el Foro Industrial Atómico (JAIF, organización que promueve los intereses de la industria nuclear en Japón) contiene muchas contradicciones y genera más preguntas de las que contesta.

La primera tiene que ver con la versión que corrió inicialmente en la prensa internacional: el terremoto provocó el cierre automático de los reactores en Fukushima, pero el tsunami destruyó o incapacitó los sistemas de enfriamiento de los reactores y eso provocó el sobrecalentamiento y explosiones de hidrógeno.

Pero hay algo que choca en esta versión. Las fotografías, videos e imágenes de satélites (por ejemplo en la página www.isis-online.org ver fotos al final del artículo) no contienen la evidencia de los destrozos que provocó el tsunami en la costa al norte de Fukushima. Ni los árboles en los estacionamientos, ni los patios de la planta tienen la huella del tsunami. Los escombros que aparecen se deben a las violentas explosiones de hidrógeno que destruyeron los edificios de los reactores 1 y 3.

Una buena parte de la propaganda del lobby nuclear descansa sobre esta versión de los hechos. Pero la evidencia revela que si hubo un tsunami en Fukushima, tuvo que ser mucho más débil que en Minamisoma o Sendai (distantes unos setenta kilómetros al norte de la planta). Por lo tanto, se abren dos hipótesis inquietantes. Primero, es posible que un tsunami de menor fuerza efectivamente inundó los sistemas de enfriamiento y los depósitos de combustible de los motores diesel (respaldo del sistema principal). Pero eso significa que las plantas eran mucho más frágiles de lo que nos quiere hacer creer el lobby nuclear. En este caso, TEPCO quedaría (otra vez) mal parada por su negligencia. Nada nuevo para TEPCO.

La segunda hipótesis es que el colapso en los sistemas de refrigeración fue provocado por el terremoto. En ambos casos, queda expuesta la falacia del lobby nuclear. Las plantas no son robustas y no funcionaron como se supone que deben hacerlo en caso de un terremoto. Adiós a la otra historieta del lobby nuclear.

Las relaciones de Japón con el mundo de la energía nuclear pueden parecer sorprendentes. Algunos se preguntarán: ¿cómo es que Japón, el único país que ha sido bombardeado con armas nucleares, recurrió a las centrales nucleares como fuente de energía? La respuesta está en la ocupación militar estadounidense (que concluyó oficialmente en 1952) y en sus esfuerzos por mantener el viejo orden conservador nipón con un disfraz de democracia parlamentaria. El tejido de engaños, corrupción y mentiras que envuelve las relaciones de los grandes conglomerados y el gobierno es el resultado de esa extraña mezcla.


Artículo publicado en La Jornada
http://nadal.com.mx

EMPLEO: La Educación NO es la respuesta

Paul KrugmanClarín

Es una verdad universalmente aceptada que la educación es la clave del éxito económico. Todo el mundo sabe que los empleos del futuro requerirán niveles de capacitación más altos que nunca. Es por esto que, en una reciente aparición junto al ex gobernador de Florida Jeb Bush, el presidente Obama declaró que “si queremos más buenas noticias sobre el empleo, tenemos que hacer más inversiones en educación”.

«Pero lo que todo el mundo sabe es equivocado«

Un día después del encuentro Obama-Bush, The Times publicó un artículo acerca del uso creciente de software para realizar investigaciones legales. Resulta que las computadoras pueden analizar rápidamente millones de documentos, haciendo de un modo muy económico una tarea que requería ejércitos de abogados y asistentes.

En este caso, entonces, el progreso tecnológico está reduciendo, de hecho, la demanda de trabajadores con un alto nivel de educación.

Y la investigación legal no es un ejemplo aislado. Como lo señala el artículo, el software también viene reemplazando a los ingenieros en tareas tales como el diseño de microprocesadores. La idea de que la tecnología moderna elimina sólo empleos poco calificados, que los trabajadores con una sólida educación son claros ganadores, puede ser dominante en la discusión pública, pero se desactualizó hace décadas.

El hecho es que desde 1990 aproximadamente el mercado laboral de EE.UU. se ha caracterizado no por un aumento generalizado de la demanda de capacitación, sino por un “vaciamiento”: los empleos con mejor remuneración y los de salarios bajos crecieron rápidamente, no así los empleos de salarios medios, la clase de trabajos de los que dependemos para sostener a una fuerte clase media. Y el agujero en el medio se fue agrandando; muchas de las ocupaciones bien remuneradas que experimentaron un rápido crecimiento en los 90 han crecido más lentamente en los últimos tiempos, aun cuando se aceleró el crecimiento del empleo de salarios bajos.

¿Por qué ocurre esto? La creencia de que la educación es cada vez más importante se basa en la noción ­que suena plausible­ de que los avances tecnológicos incrementan las oportunidades laborales para quienes trabajan con información; dicho en términos más sencillos, que las computadoras ayudan a los que trabajan con la cabeza y que perjudican a los que trabajan con las manos.

Sin embargo, algunos años atrás, los economistas David Autor, Frank Levy y Richard Murnane argumentaron que esta era una manera errada de pensar el tema. Las computadoras, señalaron, sobresalen en tareas rutinarias, “tareas cognitivas y manuales que pueden realizarse siguiendo reglas explícitas”. Así, cualquier tarea rutinaria ­categoría que abarca diversos trabajos administrativos, no manuales­ está en la línea de fuego. Por el contrario, los trabajos que no se pueden llevar a cabo siguiendo reglas explícitas ­categoría que incluye diversas clases de trabajo manual, desde chóferes de camiones hasta porteros de edificios­ tenderán a crecer aún a pesar del progreso de la tecnología.

Difícil de automatizar

Y he aquí el nudo de la cuestión: la mayor parte del trabajo manual que todavía se hace en nuestra economía parece ser del tipo del que es difícil de automatizar. En particular, en momentos en que los trabajadores del sector manufacturero tienen en Estados Unidos un nivel de desempleo inferior al 6%, no hay muchos empleos de línea de producción que se puedan perder.

Mientras tanto, buena parte del trabajo administrativo que hoy realizan trabajadores con un alto nivel de educación y una remuneración relativamente elevada, pronto podrían ser computarizados. Las aspiradoras-robot (roombas) son lindas, pero todavía falta mucho para que haya porteros-robot; por su parte, la investigación legal automatizada y el diagnóstico médico por computadora ya están aquí.

Y también hay que considerar la globalización. En otra época, sólo los obreros de fábrica tenían que preocuparse por la competencia de otros países, pero la combinación de computadoras y telecomunicaciones hizo posible proveer muchos servicios desde lejos. Y la investigación de mis colegas de Princeton Alan Blinder y Alan Krueger sugiere que los empleos bien pagos realizados por trabajadores con un alto nivel de educación tienden a ser más “tercerizables” que los trabajos realizados por trabajadores menos calificados y con sueldos bajos. De ser así, el crecimiento del comercio internacional de servicios agudizará aún más el vaciamiento del mercado laboral estadounidense.

Lo que la universidad no puede

¿Pero, de todo esto, qué dice de la política? Sí, necesitamos corregir la educación estadounidense. En particular, las desigualdades que experimentan los norteamericanos desde la línea de partida ­los chicos brillantes de familias pobres tienen menos posibilidades de terminar la universidad que los chicos mucho menos capaces de familias ricas­ no son solamente una atrocidad: representan un descomunal desperdicio del potencial humano de la nación.

Pero hay cosas que la educación no puede hacer. En especial, la noción de que poner más chicos en la universidad puede devolvernos la sociedad con clase media que supimos tener es una expresión de deseos. Ya no es tan cierto que un título universitario garantiza un buen empleo, y con el correr de las décadas es cada vez menos cierto.

Por eso, si queremos una sociedad con más prosperidad para todos, la educación no es la respuesta: tendremos que ocuparnos de construir esa sociedad directamente. Tenemos que restablecer el poder de negociación que la fuerza laboral perdió en los últimos 30 años, de modo que los trabajadores comunes así como las superestrellas puedan negociar buenas remuneraciones. Debemos garantizar las necesidades básicas, sobre todo el cuidado de la salud, para todos los ciudadanos.

Lo que no podemos hacer es llegar adonde queremos ir simplemente otorgándoles a los trabajadores títulos universitarios, que pueden ser no más que pasaportes a empleos que no existen o que no pagan salarios de clase media.

Traducción: Susana Manghi