La inteligencia artificial en la ciberseguridad y sus implicaciones éticas y sociales Intecnología 2024

 Por: Jesús Jarvis.- 

Santo Domingo.- El reciente evento Intecnología 2024, organizado por el Instituto Tecnológico de Santo Domingo (INTEC), incluyó una charla titulada Impacto de la Inteligencia Artificial en la Ciberseguridad: Oportunidades y Desafíos, presentada por Lorenzo Martínez Lebrón, coordinador desde el 2017 de la carrera de Ingeniería en Sistemas del INTEC. 


Durante su intervención, Martínez abordó uno de los temas más controvertidos: el mal uso de la IA en el contexto de la ciberseguridad. La IA se ha vuelto fundamental para mejorar la detección de amenazas y reducir el tiempo de respuesta ante ciberataques. Sin embargo, el mismo poder que permite detectar patrones complejos puede ser utilizado para fines menos éticos. En manos equivocadas, estas herramientas avanzadas pueden ser manipuladas para diseñar ciberataques sofisticados o intervenir en la privacidad de los usuarios. Lebrón enfatizó en la importancia de que tanto los desarrolladores como los usuarios finales mantengan una ética clara al emplear estas tecnologías para proteger a la sociedad en lugar de explotarla.

Un tema recurrente en el debate fue la posible pérdida de autonomía humana debido al avance de la IA. El ingeniero planteó preguntas críticas: ¿hasta qué punto debemos confiar en sistemas autónomos de IA para decisiones que afectan a la vida humana? La tecnología, mencionó, debería estar bajo un control humano supervisado, especialmente cuando se trata de sistemas que afectan la seguridad y la privacidad. Uno de los estudiantes espectadores compartió una inquietud en este sentido, mencionando el ejemplo de un robot que podría potencialmente volverse en contra de la humanidad tras aprender a actuar de manera independiente. Aunque este tipo de ejemplos aún pertenecen al ámbito de la ciencia ficción, reflejan la creciente preocupación sobre los sistemas autónomos y su impacto en el control humano.


Además, se abordó el riesgo de que las personas pierdan habilidades de pensamiento crítico y resolución de problemas debido al abuso de las IA. El experto advirtió que la dependencia excesiva de estas herramientas puede llevar a lo que algunos asistentes denominaron "idiotización". Un estudiante observó que, en lugar de desarrollar sus habilidades, algunas personas recurren constantemente a la IA incluso para las consultas más simples, limitando así su capacidad de aprender de forma autónoma y de pensar críticamente. "Unos aprenderán mucho y otros acabarán idiotizándose", señaló el estudiante, refiriéndose al posible contraste en el impacto de la IA en el desarrollo humano.





Este evento dejó claro que la inteligencia artificial en ciberseguridad representa tanto una oportunidad como un desafío. Martínez concluyó subrayando que, aunque la IA puede proporcionar grandes avances en protección y análisis de amenazas, es necesario establecer un marco ético y regulatorio para asegurar que su crecimiento se alinee con los valores humanos fundamentales y no se convierta en una amenaza para la autonomía y el desarrollo cognitivo. El futuro de la IA, según los expertos, dependerá de cómo decidamos utilizarla y en qué medida logremos equilibrar su potencia con una supervisión ética y responsable.

Comentarios

Entradas populares de este blog

Anticrono o Antitiempo: el desvalor de aquello que no se recupera, que tanto anhelamos y nos vuelve en todo lo que odiamos

Un mar de libros, una feria de enseñanzas: FIL ´24