Con Musk a su lado, Trump busca cambios en las políticas gubernamentales sobre la IA y sus peligros

 Con Musk a su lado, Trump busca cambios en las políticas gubernamentales sobre la IA y sus peligros

(CNN) — Donald Trump está a punto de entrar en la Casa Blanca por segunda vez. Su agenda incluirá supervisar el desarrollo de la inteligencia artificial, potencialmente la tecnología más poderosa de nuestro tiempo.


El presidente electo prometió “recortar el exceso de regulaciones” y recurrió al multimillonario tecnológico Elon Musk, otro crítico de las normas gubernamentales, para que le ayude a liderar el esfuerzo. Más concretamente, el Partido Republicano, en su programa electoral, dijo que derogaría una amplia orden ejecutiva firmada por el presidente Joe Biden que establecía medidas para gestionar los riesgos de seguridad nacional de la IA y evitar la discriminación por parte de los sistemas de IA, entre otros objetivos.

El documento republicano afirmaba que la orden ejecutiva contenía “ideas radicales de izquierdas” que obstaculizaban la innovación.

Sandra Wachter, catedrática de Tecnología y Regulación del Oxford Internet Institute de la Universidad de Oxford, sigue de cerca lo que suceda a continuación. La IA está repleta de riesgos que “debían abordarse ayer mismo” mediante una regulación sólida, declaró a CNN.

He aquí algunos de los peligros de la IA sin restricciones.

Discriminación

Durante años, los sistemas de IA demostraron su capacidad para reproducir los prejuicios de la sociedad -por ejemplo, sobre raza y género- porque esos sistemas se entrenan con datos sobre acciones pasadas de humanos, muchos de los cuales tienen esos prejuicios. Cuando la IA se utiliza para decidir a quién se contrata o a quién se aprueba para una hipoteca, el resultado puede ser a menudo discriminatorio.

“El sesgo es inherente a estas tecnologías, porque se basan en datos históricos para intentar predecir el futuro… aprenden quién fue contratado en el pasado, quién fue a la cárcel en el pasado”, explica Wachter. “Y así, muy a menudo y casi siempre, esas decisiones están sesgadas”.

Sin barandillas sólidas, añadió, “esas decisiones problemáticas del pasado se trasladarán al futuro”.

El uso de la IA en la aplicación predictiva de la ley es un ejemplo, dijo Andrew Strait, director asociado del Instituto Ada Lovelace, una organización sin ánimo de lucro con sede en Londres que investiga la seguridad y la ética de la IA.

Algunos departamentos de Policía de Estados Unidos utilizaron programas informáticos basados en IA y entrenados a partir de datos históricos sobre delincuencia para predecir dónde es probable que se cometan delitos en el futuro. Como estos datos reflejan a menudo el exceso de vigilancia de determinadas comunidades, Strait explicó que las predicciones basadas en ellos hacen que la-Policía centre su atención en esas mismas comunidades y denuncie más delitos en ellas. Mientras tanto, otras zonas con niveles de delincuencia potencialmente iguales o superiores se vigilan menos.

Desinformación

La IA es capaz de generar imágenes, audio y videos engañosos que pueden utilizarse para hacer creer que una persona hizo o dijo algo que no hizo. Esto, a su vez, puede utilizarse para influir en las elecciones o crear imágenes pornográficas falsas para acosar a la gente, entre otros posibles abusos.

Las imágenes generadas por IA circularon ampliamente en las redes sociales antes de las elecciones presidenciales de EE.UU. a principios de este mes, incluidas imágenes falsas de Kamala Harris, republicadas por el propio Musk.

En mayo, el Departamento de Seguridad Nacional de Estados Unidos señaló en un boletín distribuido a funcionarios estatales y locales, y visto por CNN, que la IA probablemente proporcionaría a agentes extranjeros y extremistas nacionales “mayores oportunidades de injerencia” durante las elecciones.

Y en enero, más de 20.000 personas de New Hampshire recibieron una robocall -un mensaje automatizado reproducido por teléfono- que utilizaba IA para hacerse pasar por la voz de Biden y aconsejarles que no votaran en las primarias presidenciales. Detrás de las robocalls estaba, como él mismo admitió, Steve Kramer, que trabajaba para la campaña de las primarias demócratas del congresista Dean Phillips contra Biden. La campaña de Phillips negó haber participado en las llamadas.

En el último año, también, los objetivos de las imágenes pornográficas no consentidas generadas por IA han ido desde mujeres prominentes como Taylor Swift y la representante Alexandria Ocasio-Cortez hasta niñas en la escuela secundaria.

Peligroso mal uso y riesgo existencial

Los investigadores de IA y los actores de la industria han destacado riesgos aún mayores que plantea la tecnología. Van desde ChatGPT que proporciona fácil acceso a información completa sobre cómo cometer delitos, como exportar armas a países sancionados, hasta que la IA se libere del control humano.

“Se puede utilizar la IA para crear ciberataques muy sofisticados, se puede automatizar el pirateo informático, se puede crear un sistema de armamento autónomo capaz de causar daño al mundo”, declaró a CNN Manoj Chaudhary, Director de Tecnología de Jitterbit, una empresa de software estadounidense.

En marzo, un informe encargado por el Departamento de Estado de EE.UU. advertía de los riesgos “catastróficos” para la seguridad nacional que suponía la rápida evolución de la IA, y pedía salvaguardias normativas “de emergencia” junto con otras medidas. En el peor de los casos, los sistemas de IA más avanzados podrían “suponer una amenaza de extinción para la especie humana”, según el informe.

En un documento relacionado se afirmaba que los sistemas de IA podrían utilizarse para llevar a cabo “ciberataques de gran impacto capaces de paralizar infraestructuras críticas”, entre una letanía de riesgos.

¿Y ahora qué?

Además de la orden ejecutiva de Biden, su administración también consiguió el año pasado que 15 importantes empresas tecnológicas se comprometieran a reforzar la seguridad de sus sistemas de IA, aunque todos los compromisos son voluntarios.

Y estados liderados por demócratas como Colorado y Nueva York aprobaron sus propias leyes sobre IA. En Nueva York, por ejemplo, cualquier empresa que utilice IA para ayudar a contratar trabajadores debe contratar a un auditor independiente para comprobar que el sistema está libre de prejuicios.

Según Strait, del Instituto Ada Lovelace, se está desarrollando un “mosaico de normativas (estadounidenses sobre IA), pero muy fragmentado y poco exhaustivo”.

Es “demasiado pronto para saber” si la administración Trump ampliará o derogará esas normas, señaló.

Sin embargo, le preocupa que una derogación de la orden ejecutiva de Biden suponga el fin del Instituto de Seguridad de la IA del gobierno estadounidense. La orden creó esa “institución increíblemente importante”, dijo Strait a CNN, y le encomendó la tarea de examinar los riesgos que surgen de los modelos de IA de vanguardia antes de que se hagan públicos.

Es posible que Musk impulse una regulación más estricta de la IA, como ya hizo anteriormente. Está llamado a desempeñar un papel destacado en la próxima administración como codirector de un nuevo “Departamento de Eficiencia Gubernamental” o DOGE (según sus siglas en inglés).

Musk expresó en repetidas ocasiones su temor a que la IA suponga una amenaza existencial para la humanidad, a pesar de que una de sus empresas, xAI, está desarrollando un chatbot de IA generativa.

Musk fue “uno de los grandes defensores” de un proyecto de ley en California que ya no existe, señaló Strait. El proyecto de ley pretendía evitar algunas de las consecuencias más catastróficas de la IA, como las de los sistemas con potencial para volverse incontrolables. Gavin Newsom, gobernador demócrata de California, vetó la ley en septiembre, alegando la amenaza que suponía para la innovación.

Musk está “muy preocupado por (el) riesgo catastrófico de la IA. Es posible que eso sea objeto de una futura orden ejecutiva de Trump”, dijo Strait.

Pero el círculo íntimo de Trump no se limita a Musk e incluye a J.D. Vance. El vicepresidente entrante dijo en julio que le preocupaban los “intentos preventivos de sobrerregulación” en IA, ya que “atrincherarían a los incumbentes tecnológicos que ya tenemos y harían realmente más difícil para los nuevos participantes crear la innovación que va a impulsar la próxima generación de crecimiento estadounidense.”

Tesla (TSLA), de Musk, puede describirse como una de esas empresas tecnológicas. El año pasado, Musk deslumbró a los inversores hablando de la inversión de Tesla en IA y, en su último comunicado de resultados, la empresa dijo que seguía centrada en “realizar inversiones críticas en proyectos de IA”, entre otras prioridades.

 

 

Con información de CNN

Ruben Zatarain

Related post

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *