Buscando agilizar los procesos de construcción y excavación de una forma más segura, el químico sueco Alfred Nobel inventó la dinamita uniendo la diatomita y la nitroglicerina, cuya patente e ingresos permitieron dar origen a los premios que actualmente llevan su nombre. No obstante, a pesar de su propósito inicial, la dinamita también favoreció a la industria de la guerra sirviendo a la creación de armas y bombas.
Haciendo analogía al invento de Nobel, la creación y desarrollo de tecnologías como ChatGPT también están consiguiendo agilizar múltiples procesos para cubrir diferentes demandas. Sin embargo, con una herramienta cuyo modelo está diseñado para crear contenido imitando el lenguaje humano, también puede ser utilizado para propósitos maliciosos, como ha ocurrido con la aparición de Worm GPT.
De esta manera, técnicas utilizadas por la ciberdelincuencia como el phishing, mediante la cual se busca engañar al destinatario con el propósito de obtener sus datos, permiten a hackers principiantes y avanzados poder realizar este tipo de acciones de formas instantáneas y en niveles complejos sin ser detectados, lo cual supone un nuevo campo de desafíos para la seguridad virtual.
Asimismo, esta inteligencia artificial puede ayudar a delincuentes a crear esquemas de fraude, desde estafas de soporte técnico hasta engaños de inversión. Con sus habilidades lingüísticas avanzadas, el modelo puede producir guiones o mensajes efectivos para engañar a personas y empresas.
Si bien para especialistas como Roy Darnell, Director de Detección e Inteligencia Artificial, tecnologías como estas todavía son propensas a fallar, no es impensable imaginar que mediante el desarrollo de la inteligencia artificial generativa, se le otorgue la posibilidad de ejecutar múltiples actividades con baja intervención humana, siendo un ente más autónomo.
Ello sumado al hecho de que Worm GPT, a diferencia de su contraparte, no posee los mismos parámetros éticos que restringen su funcionamiento, además de ser entrenada con información relacionada a la cibercriminalidad y los malware, ello facilita su capacidad de generar contenido malicioso para fines específicos.
Según Sandro Falconi Vizcarra, especialista en ciberseguridad, en un contexto como este no sería difícil imaginar realidades apocalípticas como Terminator. De este modo, el ingeniero resaltó la necesidad de tener ante ello una inteligencia artificial que esté configurada para neutralizar las acciones maliciosas que se hallan tras estas tecnologías.
A estas alturas visibilizar un futuro con una inteligencia artificial que se apodere de artefactos y máquinas conectadas a internet, podría resultar algo muy viable, lo que a su vez representaría una grave amenaza para el libre albedrío y la seguridad de las personas, pero acaso sería este el peor escenario que podría depararle a la humanidad.
Pero no se trata de condenar o juzgar a la herramienta, sino las personas e intereses latentes detrás de ella. Por ello también es necesario pensar en educación, valores y la ética que formamos en una sociedad cada vez más compleja y con tantos problemas donde cada quien escoge tomar la "dinamita" para construir o destruir.
Haciendo analogía al invento de Nobel, la creación y desarrollo de tecnologías como ChatGPT también están consiguiendo agilizar múltiples procesos para cubrir diferentes demandas. Sin embargo, con una herramienta cuyo modelo está diseñado para crear contenido imitando el lenguaje humano, también puede ser utilizado para propósitos maliciosos, como ha ocurrido con la aparición de Worm GPT.
De esta manera, técnicas utilizadas por la ciberdelincuencia como el phishing, mediante la cual se busca engañar al destinatario con el propósito de obtener sus datos, permiten a hackers principiantes y avanzados poder realizar este tipo de acciones de formas instantáneas y en niveles complejos sin ser detectados, lo cual supone un nuevo campo de desafíos para la seguridad virtual.
Asimismo, esta inteligencia artificial puede ayudar a delincuentes a crear esquemas de fraude, desde estafas de soporte técnico hasta engaños de inversión. Con sus habilidades lingüísticas avanzadas, el modelo puede producir guiones o mensajes efectivos para engañar a personas y empresas.
Si bien para especialistas como Roy Darnell, Director de Detección e Inteligencia Artificial, tecnologías como estas todavía son propensas a fallar, no es impensable imaginar que mediante el desarrollo de la inteligencia artificial generativa, se le otorgue la posibilidad de ejecutar múltiples actividades con baja intervención humana, siendo un ente más autónomo.
Ello sumado al hecho de que Worm GPT, a diferencia de su contraparte, no posee los mismos parámetros éticos que restringen su funcionamiento, además de ser entrenada con información relacionada a la cibercriminalidad y los malware, ello facilita su capacidad de generar contenido malicioso para fines específicos.
Según Sandro Falconi Vizcarra, especialista en ciberseguridad, en un contexto como este no sería difícil imaginar realidades apocalípticas como Terminator. De este modo, el ingeniero resaltó la necesidad de tener ante ello una inteligencia artificial que esté configurada para neutralizar las acciones maliciosas que se hallan tras estas tecnologías.
A estas alturas visibilizar un futuro con una inteligencia artificial que se apodere de artefactos y máquinas conectadas a internet, podría resultar algo muy viable, lo que a su vez representaría una grave amenaza para el libre albedrío y la seguridad de las personas, pero acaso sería este el peor escenario que podría depararle a la humanidad.
Pero no se trata de condenar o juzgar a la herramienta, sino las personas e intereses latentes detrás de ella. Por ello también es necesario pensar en educación, valores y la ética que formamos en una sociedad cada vez más compleja y con tantos problemas donde cada quien escoge tomar la "dinamita" para construir o destruir.
No hay comentarios:
Publicar un comentario