Aunque representa un avance muy importante en la tecnología, también lleva desafíos éticos y legales
Por el Dr. Francisco Javier Alvarado Rodríguez, Académico de la Universidad Autónoma de Guadalajara (UAG)
La inteligencia artificial (IA) representa un avance tecnológico significativo con un potencial transformador en nuestras vidas. Sin embargo, su rápida evolución conlleva desafíos éticos y legales, especialmente en el contexto de los delitos cometidos mediante su uso.
La autonomía y el aprendizaje de los sistemas de IA los hacen susceptibles de ser utilizados en suplantaciones de identidad, ciberataques y en la creación de contenido falso. Por ejemplo, los atacantes pueden emplear la IA para generar código malicioso que cifra los datos de las víctimas y luego exige un rescate por la clave de descifrado.
Preocupación por el uso inadecuado de IA
Además, el robo de datos personales o biométricos, como los usados en el reconocimiento facial, puede emplearse en fraudes financieros. Existe también la posibilidad de que la IA se utilice en actividades terroristas o para manipular vehículos autónomos, incrementando los riesgos de accidentes. Estos ejemplos ilustran solo algunas de las razones que justifican la creciente preocupación por el uso inadecuado de la IA.
Es fundamental la colaboración entre entidades gubernamentales, empresas y la sociedad civil para fomentar un uso ético de la IA. La regulación y supervisión deben adaptarse a los avances tecnológicos, enfocándose en prevenir el mal uso de la IA en delitos.
Evita ser víctima de la delincuencia que usa IA
No obstante, para prevenir ser víctima de estas amenazas, se requiere un enfoque multidimensional que incluya concienciación y educación. Son esenciales las medidas de seguridad robustas en sistemas y plataformas digitales.
Se recomienda:
- Uso de contraseñas seguras y su cambio periódico.
- Precaución con enlaces y archivos adjuntos en correos electrónicos.
- Mantener actualizados los sistemas operativos y el software.
Asimismo, se están desarrollando herramientas como algoritmos de detección de deepfakes y soluciones basadas en blockchain para verificar la autenticidad de la información en línea. Herramientas actuales como PhishTank, Fakespot y TruthFinder se utilizan para verificar la autenticidad de contenidos y perfiles en línea; aunque no son perfectas, ofrecen una defensa inicial contra los delitos con IA.
Desafíos y Oportunidades
Es importante considerar que la relación entre la IA y los delitos no solo presenta desafíos significativos, sino que también ofrece oportunidades para desarrollar soluciones innovadoras a estas problemáticas. Sin embargo, un enfoque colaborativo que involucre a diferentes sectores es clave para establecer marcos regulatorios sólidos, fomentar la conciencia pública y desarrollar herramientas tecnológicas que mitiguen los riesgos asociados con el uso indebido de la inteligencia artificial.
- El Dr. Francisco Javier Alvarado Rodríguez es Profesor-Investigador del Departamento de Mecatrónica de la Universidad Autónoma de Guadalajara (UAG). Cuenta con un Doctorado en Ciencias de la Electrónica y la Computación con Orientación en Matemática Computacional y Aplicada. Es experto en Inteligencia Artificial.