Buscar
Cerrar este cuadro de búsqueda.

Pedro Agudo Novo analiza los desafíos de seguridad que la IA plantea a las empresas para este 2024

En el actual escenario de rápida transformación digital, la inteligencia artificial ha emergido como un potente catalizador de cambio al incidir en múltiples sectores. Sin embargo, a la par que genera nuevas oportunidades antes impensables, también plantea desafíos de seguridad.

El experto en ciberseguridad, Comisario Pedro Agudo Novo, quien ha resuelto casos importantes en esta área como la conocida estafa ‘El fraude del CEO’, ha analizado los riesgos de seguridad que la inteligencia artificial (IA) plantea a las empresas en el panorama digital en constante evolución.

Riesgos en el aprendizaje y toma de decisiones no supervisados

Los algoritmos de IA, si bien son altamente eficientes para analizar grandes conjuntos de datos y tomar decisiones basadas en su análisis, representan un riesgo de seguridad cuando estas decisiones no se supervisan. 

Esto puede dar lugar a errores costosos y consecuencias no deseadas. Además, subraya el desafío de la «caja negra» en la IA, donde el proceso de toma de decisiones no es transparente ni comprensible para los operadores humanos, lo cual crea vulnerabilidades de seguridad difíciles de anticipar y mitigar.

Privacidad de datos en la era de la IA

En cuanto a la privacidad de los datos, Pedro Agudo Novo enfatiza que la IA, especialmente modelos como ChatGPT, se alimenta de datos y, cuantos más datos tenga, mejor podrá aprender y funcionar. 

Sin embargo, esta necesidad de datos plantea un riesgo significativo para la privacidad. La IA almacena historiales de chat e información personal, que, si no se protegen adecuadamente, pueden convertirse en blancos ideales para ciberdelincuentes y ataques de phishing. 

El Comisario, experto en seguridad, advierte que es esencial seguir una política de intercambio de datos consciente, compartiendo solo información necesaria y no confidencial.

Sesgos en la IA y sus consecuencias

El especialista en ciberseguridad señala otro peligro clave: el sesgo en la IA. Los sistemas de IA aprenden de los datos con los que se capacitan, y si estos datos contienen sesgos, esta tecnología puede adoptar y perpetuar esos sesgos, lo que podría dar lugar a prácticas injustas o discriminatorias. 

Agudo Novo subraya que esto no solo podría dañar la reputación de una empresa, sino también generar problemas legales y representar un riesgo de seguridad.

Estrategias para mitigar los riesgos de seguridad de la IA

Ante estos desafíos, Pedro Agudo Novo ofrece recomendaciones concretas para que las empresas protejan sus datos y sistemas en la era de la IA:

Compartir datos con precaución

Es importante gestionar de forma consciente y cautelosa los datos compartidos con la IA, tratando esta interacción como si se tratara de un extraño o un competidor. Solo se debe compartir información necesaria y no confidencial.

Elección de proveedores de IA

El experto sugiere elegir proveedores de servicios de IA con sólida reputación en seguridad y privacidad de datos. Es fundamental investigar sus políticas de seguridad, métodos de cifrado y su historial de cumplimiento normativo.

Uso de lenguaje genérico

Para preservar la privacidad, se recomienda utilizar lenguaje genérico en lugar de información específica y confidencial al crear tareas para la IA.

Verificación de resultados de la IA

Finalmente, el experto destaca la importancia de mantener un escepticismo saludable hacia la información generada por la IA y verificar siempre los resultados a través de investigaciones independientes.

En resumen, Pedro Agudo Novo, como especialista en ciberseguridad, antiterrorismo y antiextorsión, enfatiza que la IA ofrece un futuro prometedor, pero su implementación debe llevarse a cabo de manera responsable y consciente de los riesgos de seguridad. 

Al seguir estas recomendaciones, las empresas pueden aprovechar los beneficios de la IA, mientras protegen la seguridad de sus datos, sistemas y reputación en un mundo digital en constante evolución.

{DF} +Leídas