Inteligencia Artificial: recomiendan desarrollar estrategias de ciberseguridad
Un estudio realizado por IBM reveló que el 28% de las empresas peruanas incorporó la inteligencia artificial en sus procesos.
El uso de la inteligencia artificial (IA) se ha acelerado de manera descomunal en los últimos meses en diferentes ámbitos, sobre todo en los negocios.
Ante esta situación, Freddy Linares-Torres, director de Neurometrics, recomienda a los usuarios y empresas a desarrollar estrategias de ciberseguridad ante un eventual problema generalizado.
"Los riesgos de las IAs son cada vez más realistas y es vital tenerlas en cuenta al desarrollar estrategias y políticas de defensa, incluso en regiones tecnológicamente poco desarrolladas como Latinoamérica. Especialmente en estos países se debe fomentar la investigación y formación de capital humano especializado. Así, la capacidad de respuesta ante estas futuras amenazas será mayor y los ciudadanos digitales estarán más seguros", indicó el especialista.
Según un estudio realizado por IBM, en el 2022, el 28% de las empresas peruanas incorporó la inteligencia artificial a sus procesos y el 40% comentó estar evaluando la posibilidad de implementarla.
"Por lo tanto, la IA, mediante la automatización, y los ciberataques acelerados representará una de las amenazas digitales más importantes para un mundo cada vez más dependiente de la tecnología y las ciberestructuras", advirtió Linares-Torres.
Es preciso indicar que, en el 2022, AI Index Report de la Universidad de Stanford, la IA es más asequible de entrenar y rinde más, sin mencionar que la inversión privada en IA en 2021 ha sido más del doble que en 2020. Sin embargo, también evidencian que hay un aumento en la regulación de la IA, en investigación ética relacionada y la gestión de posibles riesgos.
"Las IAs o servicios actuales basados en ellas ya han mostrado compartir riesgos similares con otros servicios digitales, como la filtración de datos y cuestionables permisos de acceso al dispositivo del usuario. El gran poder de ChatGPT ha planteado la discusión sobre sus usos poco éticos. Por ejemplo, la presentación de textos automatizados como si fueran originales, o incluso la capacidad de estos sistemas para distorsionar y sesgar la información en forma de respuestas estructuradas", explicó el especialista.