Advierten sobre riesgos de IA y proponen tener control sobre su desconexión
El exCEO de Google advierte sobre los riesgos de la Inteligencia Artificial, sugiriendo la necesidad de regular su desarrollo e incluso desenchufarla en casos críticos.

El exCEO de Google, Eric Schmidt, ha puesto en entredicho las capacidades de la Inteligencia Artificial (IA), de una forma dual. Por un lado, descartar frenar su progreso, a pesar de reconocer los riesgos que conlleva, sin embargo, no se limita a señalar problemas, aunque propone soluciones.
El dilema de la IA
Durante una entrevista con ABC, Schmidt subrayó la magnitud de la innovación en el ámbito de la IA, sugiriendo que si un sistema informático alcanzara un nivel de automejoría, deberíamos considerar seriamente desconectarlo. Esta advertencia sugiere que la capacidad de las máquinas para operar de manera autónoma podría plantear más desafíos de los que estamos dispuestos a afrontar.
El especialista es consciente de la necesidad de establecer medidas para controlar el desarrollo de la IA, pues hizo énfasis en la importancia de dirigir los esfuerzos hacia la creación de un sistema de IA que supervise y regule a aquellos que tienen el potencial de automejorarse. Esta propuesta presenta un enfoque proactivo ante los posibles riesgos asociados a la evolución descontrolada de la tecnología.
Por otro lado, el exCEO de Google ha estado involucrado en iniciativas que incorporan la IA en el ámbito militar. Su participación en la start-up White Stork, que proporciona drones a Ucrania con tecnología de IA, resalta la versatilidad de esta herramienta en diversos sectores. Paradójicamente, el uso de la IA en contextos bélicos plantea interrogantes sobre su impacto en la seguridad y la ética.
La regulación de esta herramienta es un aspecto crucial en la búsqueda de un equilibrio entre el desarrollo tecnológico y la salvaguarda de derechos fundamentales. La entrada en vigor de la ley de la IA en Europa representa un paso significativo hacia la regulación de la Inteligencia Artificial; esta normativa clasifica los sistemas de IA en diferentes grupos, identificando aquellos que presentan un mayor riesgo para la salud, la seguridad y los derechos de las personas.
Perspectivas encontradas
A pesar de las preocupaciones expresadas por algunos expertos, la visión optimista sobre la IA también encuentra eco en el ámbito académico. Por ejemplo, el líde de IA en Meta, Yann LeCun, ha desestimado los temores relacionados con la IA, calificándolos de “absurdamente ridículos”.
Cabe mencionar que la discusión en torno a la IA refleja una tensión inherente entre el potencial transformador de la tecnología y los riesgos asociados a su desarrollo desregulado. Asumir una postura cerrada frente a la evolución de la IA podría limitar oportunidades valiosas en diversos sectores.
Por otro lado, ignorar los riesgos que conlleva la implementación indiscriminada de esta herramienta podría tener consecuencias nefastas. El desafío radica en encontrar un equilibrio que permita aprovechar las ventajas de la IA mientras se minimizan sus riesgos.