Secciones
Servicios
Destacamos
Edición
Nunca pensé que escribiría una columna sobre los peligros y precauciones de la Inteligencia Artificial, un tema que. en principio, me pilla bastante lejos. Pero Granada lleva tiempo colocándose en los puestos de salida de la carrera hacia esa tecnología, como ya hemos contado en ... esta columna y en otras secciones de este periódico. Nosotros queríamos que se instalara en nuestra ciudad la Agencia Estatal de Supervisión de la Inteligencia Artificial, pero se la asignaron a Galicia en un proceso que provocó serias dudas, reclamaciones y la consabida desilusión a la que estamos bastante acostumbrados los granadinos, que vemos pasar proyectos interesantes que vuelan a otros sitios sin que se sepa por qué.
Sabíamos que era una tecnología computacional muy sofisticada, pero con el fragor de las emociones y los cabreos no nos habíamos percatado de que lo que estábamos pidiendo es una agencia de supervisión. Cuando una actividad requiere supervisión hay que deducir que lo que haga la IA es por lo menos ambiguo y que hay que estar ojo avizor para evitar los males que nos pueden caer encima, como una caja de Pandora. Un amigo ingeniero informático me contó que ni los más conspicuos artífices de la cosa saben exactamente qué tiene dentro una especie de caja negra, donde se realizan ocultos procesos, parecidos a los neuronales de nuestro cerebro. A continuación, me informó de que las grandes firmas tecnológicas de Silicon Valley, cuando vieron la dificultad de ir adelante con los proyectos, lo primero que hicieron fue cerrar sus departamentos de Ética computacional. Lo cual quiere decir que no están por la labor de poner cortapisas a un proyecto global que creen que va a sacarlos de su penuria financiera, pues no son muy dados a ofrecer información sobre ellos, mientras se apoderan de infinitos datos de los que utilizan sus servicios y los usan para sus beneficios, que son altos.
Cómo será de problemático lo que pueda hacer la IA ahora o a medida que vaya entrenándose, que no paran de aparecer en los medios toda clase de expertos, dueños de las 'fábricas' del mundo cibernético, sociólogos, psicólogos, etc. Me han impresionado especialmente dos sujetos que han firmado un manifiesto pidiendo que este proyecto no se acelere sin que se elaboren antes las medidas de seguridad que protejan nuestras libertades y derechos. Uno de ellos es Elon Musk, el dueño de Twitter y de la agencia espacial SpaceX, que no es precisamente un ejemplo de moderación y sensatez y el otro es Geoffrey Hinton, el 'padre' del asunto, quien en 2012, en Toronto, junto con dos alumnos suyos, diseñó la tecnología que está en la base de la IA. Aunque me temo que llega un poco tarde, este hombre se está esforzando en señalar la insensatez de sacar al mercado algo que no tiene las suficientes garantías de seguridad y que toca campos muy delicados de los seres humanos, con algo así que es como la extensión de nuestro cerebro, como decía Mac Luhan y otras cosas como lo que es verdad o mentira, humano o máquina, y como se están frotando las manos los que se enriquecen con la estupidez humana.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Fallece un hombre tras caer al río con su tractor en un pueblo de Segovia
El Norte de Castilla
Publicidad
Publicidad
Te puede interesar
España vuelve a tener un Mundial de fútbol que será el torneo más global de la historia
Isaac Asenjo y Álex Sánchez
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.