Inicio 💻 Tecnología Los riesgos de la inteligencia artificial: ¿Cómo el ChatGPT puede comprometer la privacidad y la seguridad en línea?

Los riesgos de la inteligencia artificial: ¿Cómo el ChatGPT puede comprometer la privacidad y la seguridad en línea?

de Primera Fuente
Publicado Actualizado 239 visitas

El boom de la inteligencia artificial ha impactado fuertemente a la sociedad, trayendo beneficios y facilidades para la vida cotidiana de las personas y para las operaciones de las empresas. Entre estas nuevas tecnologías se encuentra ChatGPT, que es utilizada para una variedad de propósitos en diversos sectores, desde la creación de textos, historias y poemas, ademas de procesos judiciales y recomendaciones médicas.

ChatGPT también es capaz de proporcionar instrucciones detalladas, divididas y ordenadas en etapas lógicas sobre diversas áreas y actividades, lo que puede ayudar considerablemente a estudiantes, profesionales principiantes o incluso experimentados que deseen automatizar o agilizar actividades cotidianas, repetitivas o de cualquier otra naturaleza.

Esta herramienta basada en el modelo de lenguaje natural GPT-3 (Generative Pre-trained Transformer 3), de OpenAI, es un modelo de lenguaje de gran escala (LLM, por sus siglas en inglés), que funciona con información de datos textuales, para que así pueda generar respuestas coherentes o preguntas en lenguaje natural. Sin embargo, junto con los beneficios traídos por ChatGPT, también existen riesgos asociados a su manejo.

Riesgo de privacidad y confidencialidad

El método (no supervisado) y la cantidad de datos utilizados en el uso de este servicio pueden generar riesgos para la privacidad y confidencialidad de la información, ya que el modelo puede aprender a partir de datos que contengan información confidencial o sensible sobre personas y empresas. De esta manera, esta información puede ser usada para componer una respuesta de ChatGPT a cualquier pregunta donde ese contenido sea coherente.

Ciberseguridad

Una persona malintencionada con poco o ningún conocimiento en programación, puede pedir a ChatGPT que escriba un script que explote una vulnerabilidad conocida. Otro usuario, con conocimientos aún más superficiales, puede solicitar una lista con opciones de posibles métodos de explotación de esa vulnerabilidad, mientras que un tercer individuo puede solicitar una lista de las vulnerabilidades conocidas de una aplicación, protocolo o tecnología en particular.

Según Ueric Melo, el Privacy Manager de Genetec, compañía con más de 25 años de experiencia en la transformación digital de los servicios de seguridad electrónica; se considera que «ChatGPT entiende el contexto de la conversación (la herramienta «recuerda» la información recibida y proporcionada en cualquier momento, dentro de un mismo chat) y  crea una línea temporal con las situaciones hipotéticas anteriores. Se pueden imaginar el escenario donde una persona con conocimientos técnicos limitados, a partir de una pregunta como: ‘¿Cómo hackear [nombre de la aplicación]?’, podrá obtener una respuesta final».

Noticias falsas (Fake News)

El servicio tiene la capacidad de producir historias convincentes, si se dispone de la información y el contexto adecuados, también permite la creación de creíbles «Fake News», que pueden convertirse en «verdades» para quienes las reciben. Este es un riesgo bastante elevado, ya que los impactos de una noticia falsa pueden ser enormes.

«Las ‘Fake News’ pueden perjudicar la reputación de alguien, o incluso acabar con una marca o empresa, pueden influir en situaciones políticas e incluso causar daño físico o la muerte de personas», comenta Melo.

Resultados sesgados o incorrectos

Debido a uno de los objetivos de la herramienta, de entregar respuestas en un lenguaje natural (lo más cercano posible a una respuesta dada por un ser humano), la inteligencia artificial puede «inventar» información, referencias y hechos históricos y presentarlos como factuales a lo que se denomina «Alucinación de IA».

Además, por los motivos dichos anteriormente, ChatGPT también puede presentar respuestas sesgadas, parciales, ofensivas e incluso agresivas, como ya ha ocurrido con otras herramientas basadas en IA.

«Esta nueva alternativa es una herramienta poderosa y prometedora que puede traer muchos beneficios para diversos sectores, el modelo no es 100 % confiable. Toda información generada por la aplicación debe ser evaluada, verificada, ajustada y validada por un ser humano», sostiene el ejecutivo de la compañía experta en tecnología y ciberseguridad.

El servicio está causando una revolución en el universo de la inteligencia artificial, principalmente por la democratización de este tipo de tecnología. Es fundamental que los desarrolladores y usuarios estén conscientes de los riesgos y que se implementen medidas adecuadas de protección para garantizar que los datos estén adecuadamente protegidos y que el servicio sea utilizado de manera ética y responsable.

Puede que te interese

Primera Fuente es un medio de comunicación digital chileno que se dedica a ofrecer información relevante y de actualidad a nivel nacional e internacional. Su enfoque está en proporcionar noticias veraces y objetivas en áreas como política, economía, sociedad, cultura, y deportes, con un especial énfasis en el contexto regional. Además, Primera Fuente se destaca por su compromiso con el periodismo investigativo, brindando a sus lectores un análisis profundo y responsable sobre temas de interés público. Utilizando plataformas digitales, se esfuerzan por mantener a sus seguidores informados de manera rápida y accesible, adaptándose a los nuevos formatos de consumo de noticias.

Editorial

Últimas Notcias