¿Una victoria pírrica en Arizona? por Andrés Oppenheimer

Artículo de Oppenheimer sobre la inmigración en Estados Unidos y la polémica ley de inmigración del estado de Arizona.

Destaco:

Los defensores de la ley estatal y de otras leyes similares que han sido presentadas en 17 estados dicen que ante la inacción del gobierno federal, los estados deben tomar medidas propias para detener el flujo de inmigrantes ilegales. El gobierno del presidente Obama y los grupos pro inmigración dicen que la ley de Arizona viola derechos fundamentales, y reclaman una reforma inmigratoria integral.

``Me temo que la consecuencia no buscada de este dictamen sea redoblar los esfuerzos de los partidarios de la ley de Arizona a nivel nacional, para detrimento de los inmigrantes'', me dijo el profesor de leyes de Temple University Peter Spiro. ``Se están dando contra la pared a nivel estatal, de manera que redoblarán sus esfuerzos a nivel federal''.

Mi opinión: Sé que esto suena raro, pero si la jueza no hubiera bloqueado las partes más severas de la ley de Arizona, la legislación estatal podría haber muerto por causas naturales. Las fuerzas policiales de Arizona pronto se hubieran dado cuenta de que no tienen recursos para actuar como agentes federales de inmigración, ni ganas de ser vistas a nivel mundial como un símbolo de prácticas racistas.



ARTÍCULO:

Al igual que muchos, celebré la noticia de que una jueza suspendiera las partes más duras de la xenofóbica ley inmigratoria de Arizona la semana pasada. Pero cuanto más lo pienso, más me temo que la decisión judicial terminará siendo contraproducente para los hispanos.

El dictamen suspende las provisiones de la ley de Arizona que permiten a las policías locales exigir documentos inmigratorios a personas por la mera sospecha de que residen ilegalmente al país. Eso podría haber llevado a que la policía interrogue a todos los hispanos con quienes entra en contacto, ya sean residentes legales o indocumentados, por su mero aspecto.

Pero contrariamente a la opinión generalizada de que el fallo fue una victoria de las fuerzas pro inmigración, podría tener un impacto negativo en las elecciones legislativas de noviembre, y terminar resultando perjudicial para los inmigrantes.

En primer lugar, la resolución judicial fue tan sólo el primer paso de lo que probablemente sea una prolongada batalla legal. La gobernadora de Arizona, Jan Brewer, una abierta defensora de la ley estatal, ya ha dicho que ha apelado el dictamen y que está dispuesta a llevar el caso hasta la Suprema Corte. La batalla legal recién empieza.

Los defensores de la ley estatal y de otras leyes similares que han sido presentadas en 17 estados dicen que ante la inacción del gobierno federal, los estados deben tomar medidas propias para detener el flujo de inmigrantes ilegales. El gobierno del presidente Obama y los grupos pro inmigración dicen que la ley de Arizona viola derechos fundamentales, y reclaman una reforma inmigratoria integral.

En segundo término, el dictamen judicial posiblemente sirva para energizar a los republicanos en las lecciones de noviembre.

Los grupos republicanos que apoyan la ley de Arizona lo utilizarán como grito de guerra que aliente a votar contra el gobierno, y elegir un nuevo Congreso más favorable a medidas draconianas contra la inmigración.

``Me temo que la consecuencia no buscada de este dictamen sea redoblar los esfuerzos de los partidarios de la ley de Arizona a nivel nacional, para detrimento de los inmigrantes'', me dijo el profesor de leyes de Temple University Peter Spiro. ``Se están dando contra la pared a nivel estatal, de manera que redoblarán sus esfuerzos a nivel federal''.

En tercer lugar, y lo más importante, la noticia de la suspensión de las partes más severas de la ley de Arizona puede llevar a que muchos hispanos pierdan interés en votar en noviembre. Sin el apoyo de los hispanos, muchos candidatos a congresistas que se oponen a leyes como la de Arizona podrían perder las elecciones, y eso podría dar lugar a un Congreso más ``duro'' en materia migratoria.

Obama ganó la elección presidencial del 2008 con un 67 por ciento del voto hispano. Pero una nueva encuesta de Associated Press y Univision dice que sólo el 57 por ciento de los hispanos aprueba su gestión actualmente.

``Definitivamente, el mayor temor del Partido Demócrata es que los hispanos no vayan a votar en noviembre'', me dijo el encuestador demócrata Sergio Bendixen. ``Si los hispanos no salen a votar, el partido podría sufrir pérdidas mucho mayores de las esperadas''.

Además de la percepción de que la ley de Arizona ha dejado de ser una amenaza inminente, muchos hispanos posiblemente no vayan a votar porque están decepcionados con Obama por no haber cumplido su promesa de campaña de presentar una reforma inmigratoria integral al Congreso al comienzo de su mandato, dijo Bendixen.

Aunque pocos encuestadores predicen que los republicanos se apoderarán de la Cámara de Representantes, muchos afirman que los republicanos pueden ganar en el Senado.

Mi opinión: Sé que esto suena raro, pero si la jueza no hubiera bloqueado las partes más severas de la ley de Arizona, la legislación estatal podría haber muerto por causas naturales. Las fuerzas policiales de Arizona pronto se hubieran dado cuenta de que no tienen recursos para actuar como agentes federales de inmigración, ni ganas de ser vistas a nivel mundial como un símbolo de prácticas racistas.

Si la ley estatal hubiera entrado en vigor intacta, el enojo en la comunidad hispana se hubiera traducido en una votación masiva a favor de los demócratas en noviembre, lo que le ayudaría al Partido Demócrata a conservar la mayoría en ambas Cámaras del Congreso, y luego negociar una reforma inmigratoria integral desde una posición de fuerza.

Ahora, será más difícil que los hispanos vayan masivamente a las urnas, y podríamos terminar con un nuevo Congreso con más legisladores antiinmigrantes que el actual. Ojalá me equivoque, pero es una posibilidad real.

Goyescas de Jon Juaristi

Artículo de Juaristi sobre historia, toros y España.

Destaco:

Goya fue, sin duda, el primero en captar que la guerra había establecido un nexo simbólico profundo entre el toreo y la nación, y ello se advierte con fulgurante claridad en el paralelismo entre los aguafuertes de la Tauromaquia y los Desastres, cuya síntesis conceptual había alcanzado en aquel gran lienzo taurino de 1814 (que no contiene un solo toro), La Carga de los Mamelucos, donde la masa de los jinetes napoleónicos sugiere un descomunal morlaco coronado, a modo de astas, por la cimitarra de un mameluco y el sable de un oficial francés —que unen así los estereotipos negativos del moro y del gabacho—, y asediado por una cuadrilla de improvisados torerillos a pie que apuntillan a los invasores, mientras un friso de aficionados los jalea.




ARTÍCULO:

ESTO de la prohibición del toreo no lo han inventado los nacionalistas catalanes. Conviene recordar que S.M. don Carlos III se lo quitó de en medio con una Pragmática Sanción ya en 1785 y que, aún después de la muerte del monarca, Jovellanos aplaudió la decisión en aquella excelente memoria sobre espectáculos y diversiones públicas que le encargó la Academia de la Historia. A Jovellanos no le indignaba la «diversión nacional», como la llamaban entonces sus partidarios, por los sufrimientos del bicho, sino porque mezclaba a los diferentes estamentos, aplebeyando a la nobleza. Presentó su primera Memoria a la Academia en 1790, con el telón de fondo de la movida revolucionaria en Francia y afligido por la preocupación de que en España pasara algo semejante si prosperaba la nivelación social inducida por las corridas de toros, a las que las marquesas acudían disfrazadas de majas y compitiendo en desgarro con la flor de la mancebía. No había nacido Tocqueville, ni falta que le hacía a don Gaspar Melchor.

Al toreo lo salvó de las asechanzas ilustradas la guerra contra Napoleón, que la hizo el público de los tendidos de sol mientras los ilustrados le organizaban el gobierno títere a Pepe Botella. El general Castaños, que no disponía de lanceros aristocráticos, se llevó a Bailén unas cuantas partidas de garrochistas marismeños que dieron bastante juego. En fin, los españoles de entonces ganaron la guerra a base de hacerla de la única forma que sabía hacerla el pueblo analfabeto, toreando al enemigo. Expulsados los franceses, no hubo ya margen para imponer una policía de costumbres como la de Carlos III, e incluso los defensores actuales de la Ilustración española admiten que ésta sólo triunfó, paradójicamente, en lo que Jovellanos y otros quisieron abolir: la cría del toro de lidia y la aparición del capitalismo moderno bajo las figuras del ganadero y del empresario taurino.

Goya fue, sin duda, el primero en captar que la guerra había establecido un nexo simbólico profundo entre el toreo y la nación, y ello se advierte con fulgurante claridad en el paralelismo entre los aguafuertes de la Tauromaquia y los Desastres, cuya síntesis conceptual había alcanzado en aquel gran lienzo taurino de 1814 (que no contiene un solo toro), La Carga de los Mamelucos, donde la masa de los jinetes napoleónicos sugiere un descomunal morlaco coronado, a modo de astas, por la cimitarra de un mameluco y el sable de un oficial francés —que unen así los estereotipos negativos del moro y del gabacho—, y asediado por una cuadrilla de improvisados torerillos a pie que apuntillan a los invasores, mientras un friso de aficionados los jalea.

Entiendo que a los nostálgicos de una Ilustración racionalista que aquí no tuvo entrada les siga mosqueando el atavismo torero de la identidad nacional, pero, aunque los distingo favorablemente de la manada progre que se cree más sensible y catalana prohibiendo las corridas en aras de los improbables derechos animales, aprecio más a quienes, como Goya, han intentado entender y explicar por qué somos como somos y seguiremos siendo los españoles, catalanes incluidos, a despecho de la zoofilia encubierta de los nacionalistas periféricos.

The ghost writer

Visita nocturna, 0:35, al cine para ver El escritor, una buena película.

Me mantuvo entretenido y me gustó mucho la serenidad de sus secuencias, además los diálogos en los que interviene el escritor siempre tienen un punto de ironía y cachondeo que agradezco. La trama tiene sus inconsistencias y lagunas, pero al fin y al cabo no es más que ficción.

Mención aparte para la mansión en la isla, con esos grandes ventanales que aislan de las tormentas, otro punto a favor de la película.

Los actores están estupendos, además aparece el gran Eli Wallach inolvidable desde su aparición en El bueno, el feo y el malo.



¿Máquinas capaces de soñar? por Javier Sampedro

Artículo de Sampedro sobre Inteligencia Artificial y su desarrollo.

Destaco:

El año pasado, la Asociación para el Avance de la Inteligencia Artificial reunió a una élite de científicos de la computación para discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica. Una de sus preocupaciones es que puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como los zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas o rastrean un territorio como las abejas.

Otra preocupación es precisamente que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral, dado que los robots ya no solo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales como la ciencia.

Los robots actuales no solo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, y ello pese a que las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena. Las trayectorias de estos rastreadores artificiales recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.

 
 
ARTÍCULO:
 
¿Cuándo deberemos considerar inteligente a un ordenador? ¿Cuando lo parezca? Ese es el famoso test de Turing para máquinas presuntamente pensantes, formulado en los años cincuenta por el matemático británico Alan Turing, uno de los grandes pioneros de las ciencias de la computación. Pero a todo el mundo le parecían inteligentes los jugadores de ajedrez hasta la aparición de Deep Blue. Y que este ingenio de IBM igualara a Gary Kaspárov ha hecho más por empeorar la imagen de los ajedrecistas que por mejorar la de los ordenadores.
 
Sin embargo, las máquinas ya hacen ciencia en varios sentidos. Un especialista en cáncer no podría seguir la literatura relevante para su campo ni aunque no hiciera otra cosa en todo el día: ahora mismo son dos millones de papers (artículos en revistas científicas revisadas por pares) y 200 millones de webs. Los ordenadores llevan tiempo siendo esenciales para analizar esos datos.

Pero los nuevos programas utilizan los avances de la inteligencia artificial y empiezan a trascender del análisis a la hipótesis. Las máquinas sí pueden leer toda la literatura relevante, y la integran con los datos experimentales, buscando pautas y relaciones lógicas.

Los científicos han utilizado estas ayudas computacionales en la investigación de fármacos, la asignación de funciones a los miles de nuevos genes que salen a diario de los secuenciadores de ADN, la identificación de todos los elementos de una ruta de reacciones metabólicas, y la detección de inconsistencias lógicas en un argumento.

Los ordenadores ya se hacen preguntas como: ¿qué idea no se les ha ocurrido a los especialistas en este campo? A veces el concepto clave está en otra disciplina científica distinta. Los últimos programas utilizan los avances de la inteligencia artificial para formular nuevas hipótesis sobre el sistema.

La mera idea de que las máquinas puedan formular hipótesis habría hecho derramar todos los cafés del Círculo de Viena, el selecto grupo de científicos y filósofos de la ciencia -Carnap, Gödel, Ayer, Reichenbach- que formuló en los años veinte el empirismo lógico, o neopositivismo. Su nombre completo era Círculo de Viena para la Concepción Científica del Mundo.

Según uno de sus miembros más destacados, el filósofo Hans Reichenbach -que murió cuando se descubrió la doble hélice-, se pueden formular reglas que permitan descartar o confirmar una hipótesis, pero no reglas que permitan formularla. Lo que le llevó a esa concesión fueron los descubrimientos debidos a golpes súbitos de imaginación y, muy en particular, la hipótesis de Kekulé.

Kekulé estaba seguro de que los compuestos orgánicos se basaban en cadenas de carbono, pero el benceno no le cuadraba en el esquema. Faltaban dos átomos de hidrógeno. Después de meses de desesperación, se quedó traspuesto junto a la lumbre y soñó con una serpiente que se mordía la cola, ¡lo que resolvió el enigma! El benceno no era una cadena lineal, sino un anillo, y los dos átomos de hidrógeno ausentes no eran más que el precio químico de juntar los dos cabos. ¿Puede un ordenador soñar algo así?

"No hay duda de que la imaginación científica puede basarse en lógicas aparentemente externas a la ciencia, como la serpiente que se muerde la cola de Kekulé", responde en una entrevista por correo electrónico el sociólogo James Evans, de la Universidad de Chicago. "Nuestras mentes son sistemas semipermeables, y la investigación psicológica y social indica que es muy probable que tome patrones prestados de la política y la religión, de la estructura física de su entorno, de sus pautas de acción, de sus metáforas y compromisos culturales. Esto hace posible para los científicos considerar de forma fructífera una amplia gama de patrones".

Evans y su colega Andrey Rzhetsky publican en el último número de Science un análisis titulado Machine science (ciencia de máquina), que sostiene que los ordenadores van a generar pronto "muchas hipótesis útiles con poca ayuda de los humanos". La especialidad académica de Evans es investigar cómo la lógica institucional y sus redes con la industria y el Gobierno conducen a una evolución desigual de la frontera y los beneficios de la ciencia.

"Pero supongamos", prosigue el sociólogo de Chicago, "que al ordenador no solo le alimentamos con una serie de patrones -como el anillo del benceno-, sino también con la lógica para descubrir nuevos patrones. Por ejemplo, la persistencia del patrón dentro de un dominio, o su frecuencia a través de varios dominios. Entonces el ordenador puede identificar una amplia gama de tipos de patrones, muchos de ellos no previstos por el programador".

En este sentido, Evans cree que incluso Kekulé se quedó corto. "Imaginemos que Kekulé, después de descubrir el anillo del benceno, hubiera dedicado un esfuerzo similar para generalizar su descubrimiento. No solo a considerar otras clases de moléculas con una estructura similar, sino también cualquier tipo de estructuras arbitrarias de la que se conocen los ingredientes pero no la geometría".

Si los ordenadores están listos para trascender el sueño de Kekulé -y con él la última concesión de Reichenbach a la intervención humana en la investiga-ción-, ¿qué van a hacer los científicos a partir de ahora? "La generación de hipótesis por ordenador", dice Evans, "invita a los científicos a reconsiderar su filosofía de la ciencia: ver cuáles son las reglas de descubrimiento más fructíferas, y explotarlas a fondo si son robustas. Van a cambiar el papel del científico de buscar relaciones concretas a buscar cuáles son los métodos de descubrimiento más fructíferos, los que podrían revelar automáticamente dichas relaciones concretas".

¿Cómo puede una máquina encontrar una pauta que no está buscando? "Hay dos clases de generación automática de hipótesis", responde Evans. "El primero supone una lógica preestablecida de los conceptos y las relaciones dentro de un campo concreto. El científico conoce el patrón que busca (por ejemplo, un gen se activa o inhibe otro), y luego usa la computadora para ayudarle a rastrear a través de una gran base de datos en busca de descubrimientos. Este tipo de descubrimiento se asemeja a la búsqueda de un nuevo elemento para llenar los agujeros en la tabla periódica de Mendeléiev".

Las levaduras sintetizan tres compuestos esenciales (aminoácidos) mediante una red de 25 reacciones químicas interconectadas, cada una catalizada por una proteína. Cada proteína está codificada por un gen, y cada gen se puede inactivar mediante una mutación. Una levadura mutante es incapaz de multiplicarse en un medio de cultivo, a menos que se le facilite el producto de la reacción química que le falta (o de una reacción posterior).

Un robot programado por Ross King, de la Universidad de Gales, resuelve este tipo de rompecabezas con la misma eficacia que los mejores licenciados humanos en biología y ciencias de la computación. Basta suministrar al robot los reactivos, las 25 cepas mutantes y unos conocimientos básicos sobre el metabolismo de las levaduras para que la máquina descubra la función de los 25 genes.

"Huelga decir que ese enfoque puede descubrir muchas cosas nuevas", admite Evans, "pero por lo general es algo que los investigadores ya estaban buscando. Hay, sin embargo, un segundo tipo de generadores automáticos de hipótesis. Las estrategias de este segundo tipo han supuesto el descubrimiento -o invención- de conceptos nuevos de alto o bajo nivel. Por ejemplo, en vías metabólicas y sistemas sociales".

Evans explica que los nuevos conceptos trabajan juntos por la integración en un sistema más amplio, "y en su correlación con otras clases importantes de conceptos, como la enfermedad. El término más utilizado actualmente es el de grano grueso y las unidades descubiertas pueden ser bastante nuevas y a menudo inesperadas".

El grano grueso es un concepto tomado de la física. La temperatura de un cazo de agua es una descripción de grano grueso. La de grano fino consistiría en censar la agitación de todas las moléculas de agua que contiene el cazo (lo que tiene el inconveniente de ser imposible). La temperatura mide el promedio de todas esas agitaciones individuales: una descripción de grano grueso, no sólo posible sino también muy útil, y tan precisa como se quiera.

Los programas actuales pueden identificar la estructura de grano grueso de un sistema, o de cualquier conjunto de cosas. Por ejemplo, el conjunto de conceptos establecidos en medicina interna. De cerca, no es más que una lista de conceptos. Pero vistos con cierta perspectiva -a grano gordo-, la lista puede tener estructura, con grumos de conceptos, o "agregados que forman conceptos de mayor nivel", como escriben en Science los dos investigadores.

En patología y epidemiología, los nuevos programas han podido identificar parecidos regulares entre algunos de esos grumos de conceptos. Aun sin saber a qué se deben esas similitudes de grano grueso, su mera existencia ha resultado un criterio muy útil para restringir drásticamente el número de hipótesis viables sobre la causa de una enfermedad o la evolución de una epidemia.

Evans ve más interesantes "los enfoques automatizados para el descubrimiento de nuevas relaciones, a veces en forma de ecuaciones. Estos sistemas revelan las complejas relaciones que hay entre los elementos dentro de un sistema. Estos enfoques empiezan rastreando al azar las relaciones posibles, pero luego restringen las que deben considerarse más a fondo a aquellas relaciones que integran todo el sistema físico, biológico o social. Creo que el descubrimiento computacional de nuevos conceptos y relaciones pueden permitir a los científicos descubrir algo incluso cuando no lo están buscando".

El año pasado, la Asociación para el Avance de la Inteligencia Artificial reunió a una élite de científicos de la computación para discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica. Una de sus preocupaciones es que puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como los zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas o rastrean un territorio como las abejas.

Otra preocupación es precisamente que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral, dado que los robots ya no solo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales como la ciencia.

Los robots actuales no solo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, y ello pese a que las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena. Las trayectorias de estos rastreadores artificiales recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.

La computación blanda y la lógica borrosa introducidas por el matemático azerbaiyano iraní Lofti Zadeh, de la Universidad de Berkeley, utilizan redes neuronales (programas que aprenden de la experiencia) y algoritmos genéticos (programas que evolucionan en el tiempo) para diseñar máquinas capaces de aprender a manejar conceptos difusos, como hacemos los humanos.

El lingüista William Labov, fundador de la moderna socio-lingüística, demostró en 1973 que las categorías taza y cuenco son difusas en nuestro cerebro: se solapan una con otra, y su uso depende más del contexto y la experiencia del hablante que del tamaño real del recipiente. Por ejemplo, muchos sujetos del experimento consideraron el mismo recipiente como una taza (si se les decía que contenía café) y como un cuenco (cuando un rato después se les sugirió que servía para comer). La decisión entre los dos nombres depende a la vez de otros factores: tener un asa, ser de cristal, llevar un plato debajo y exhibir un diámetro creciente de base a boca restan puntos a cuenco y empujan al hablante hacia taza.

En los dispositivos controlados por el cerebro -como las actuales prótesis mecánicas-, las señales emitidas por las neuronas deben ser interpretadas, o descodificadas, por un ordenador antes de poder ser leídas por el miembro artificial. La función del ordenador es predecir los movimientos que el usuario quiere ejecutar. Los fallos en esos sistemas de predicción suscitan problemas similares a los que se plantea la industria del automóvil respecto a los dispositivos automáticos de conducción, y que son una de las mayores barreras prácticas a su desarrollo industrial: en caso de accidente, ¿tuvo la culpa el hombre o la máquina?