Preocupaciones y Peligros asociados a ChatGPT
Es imposible pasar por alto el nuevo avance tecnológico que está acaparando la atención de todos: ChatGPT. En cuestión de semanas, se ha convertido en el tema de conversación en las redes sociales. Muchos profesionales de la ciberseguridad han compartido sus experimentos y preocupaciones, anticipando posibles usos maliciosos por parte de los ciberdelincuentes y planteando interrogantes sobre la privacidad de los datos ingresados por los usuarios en esta herramienta. Quedan muchas preguntas sin respuesta, como la conservación de datos, la reutilización y el aprendizaje de la información proporcionada por los usuarios, y su opaca política de tratamiento de datos conforme al RGPD. Para evitar cualquier filtración de información estratégica, empresas como Apple, Goldman Sachs y Samsung Electronics han pedido a sus empleados, mediante comunicados internos, que dejen de utilizar ChatGPT. Microsoft y Amazon también han instado a sus empleados a no introducir información confidencial en esta herramienta. En este artículo, exploraremos en detalle los peligros y preocupaciones asociados a ChatGPT, así como su posible impacto en las universidades y la filtración de datos sensibles.
Las condiciones de uso de ChatGPT son claras: OpenAI advierte cuando te conectas a ChatGPT de que tus conversaciones pueden ser examinadas por sus expertos en IA. En otras palabras, cualquier conversación que mantengas con ChatGPT podría ser leída por los trabajadores de OpenAI y, por tanto, quedan almacenadas.
Existe preocupación por la seguridad de que los empleados compartan datos empresariales con ChatGPT.
El proveedor de servicios de seguridad Cyberhaven publicó recientemente un informe de seguimiento del uso de chatbots de IA en la empresa, que muestra que, a 21 de marzo, el 8,2% de los empleados ha utilizado ChatGPT en el lugar de trabajo y el 6,5% ha insertado en él datos sensibles del empleador desde su lanzamiento en noviembre. Los analistas temen que esto pueda dar lugar a filtraciones masivas de información confidencial. El primer incidente de este tipo se produjo en marzo de 2023, cuando ChatGPT filtró el historial de conversaciones y la información de pago de algunos usuarios. OpenAI ha confirmado la filtración de datos.
1 - Confidencialidad y protección de datos
Es crucial entender que cualquier información introducida en ChatGPT puede acabar en su conjunto de datos de aprendizaje si no se desactiva el historial de discusiones.
Tras sus contratiempos con Italia y las investigaciones europeas, OpenAI ha aclarado recientemente su política y ha introducido un ajuste que simplifica las cosas. Si se desactiva el registro de conversaciones, no se utilizará ningún dato enviado a ChatGPT para mejorar y potenciar la IA. En cambio, si el registro de chat está activado, cualquier dato sensible, privado o confidencial transmitido podría acabar incorporándose al conocimiento de la IA y, por tanto, utilizarse para responder a otros usuarios ajenos a la empresa.
A la espera de una mayor granularidad en la configuración de ChatGPT, las empresas y universidades no tienen otra opción que exigir a los empleados que desactiven la historización para evitar cualquier riesgo de fuga y garantizar que no se transmita información personal o confidencial a las IA generativas. Pero, ¿podemos ahora fiarnos realmente de lo que dicen?
En 2023, ChatGPT reveló brevemente el historial de conversaciones de algunos usuarios. OpenAI se vio obligada a desconectar ChatGPT para resolver el problema. En un informe de incidentes, OpenAI afirma haber descubierto que el mismo fallo podría haber provocado que el 1,2% de los suscriptores de ChatGPT+ revelaran información de pago. El informe afirma que algunos usuarios pudieron ver el nombre y apellidos, la dirección de correo electrónico, la dirección de pago, los cuatro últimos dígitos (únicamente) de un número de tarjeta de crédito y la fecha de caducidad de la tarjeta de crédito de otro usuario activo.
2 - Respuestas prefabricadas e inexactas
El segundo riesgo identificado es, como era de esperar, la tendencia natural de ChatGPT y des a "alucinar", es decir, a proporcionar información incorrecta, o incluso completamente falsa, pero aparentemente verosímil. Esto va desde hechos inventados hasta citas o textos legales que ¡nunca existieron!
Con esta tendencia a la invención, habrá que pedir a los usuarios de estas IA que comprueben sistemáticamente las afirmaciones que hacen y se aseguren de la exactitud y pertinencia de las respuestas generadas antes de utilizarlas.
Por ejemplo, en julio de 2023, abogados de Sudáfrica invocaron jurisprudencia, pero el problema era que las sentencias invocadas no existían. Se basaban en argumentos inventados desde cero por ChatGPT, con la redacción del contexto dando sensación de realidad.
3 - Sesgos en el modelo y sus respuestas
A pesar de los esfuerzos de OpenAI por minimizar los sesgos y la discriminación en ChatGPT, éstos existen. Reconocer estos sesgos no siempre es fácil para los usuarios. Sobre todo porque no existe un método de detección ni una solución práctica para evitarlos. Según Ron Friedmann, de Gartner, probablemente sea imposible eliminar los prejuicios por completo. Los departamentos jurídicos y de cumplimiento deben mantenerse al día de las leyes que rigen el sesgo de la IA y asegurarse de que su asesoramiento las cumple. Esto puede significar trabajar con expertos en la materia para garantizar que los resultados sean fiables. El analista también aconseja utilizar las funciones de auditoría de máquinas y navegadores para establecer controles de calidad y analizar los temas que llevan la IA a temas controvertidos.
4 - Propiedad intelectual y derechos de autor
Dado que ChatGPT se basa en una gran cantidad de datos procedentes de Internet, que probablemente incluyen material protegido por derechos de autor, sus respuestas podrían infringir derechos y copyright. Aún quedan muchos interrogantes en torno a esta cuestión. A falta de textos jurídicos y jurisprudencia sobre el tema, las empresas navegan en la oscuridad. La tarea se complica aún más por el hecho de que ChatGPT y muchas otras IA generativas no citan las fuentes que inspiraron su respuesta, ya sea textual o visual. Corresponde al usuario tener cuidado con el uso que hace de las respuestas para evitar cualquier infracción de la propiedad intelectual.
5 - Cuidado con los fraudes cibernéticos
Los actores maliciosos ya están utilizando ChatGPT para generar información falsa a gran escala, como reseñas falsas en sitios de comercio electrónico, fakenews en redes sociales y spam en varios idiomas. Además, ChatGPT es susceptible a la inyección de comandos maliciosos, una técnica de hacking que engaña al modelo para que realice tareas no deseadas. Una supervisión adecuada es esencial para limitar estos riesgos y evitar la desinformación tanto interna como externa.
6 - A los ciberdelincuentes les resultará más fácil detectar vulnerabilidades.
ChatGPT tiene una gran capacidad de análisis. Al ofrecerle el código fuente, es capaz de detectar posibles vulnerabilidades. Esta técnica fue utilizada por un hacker ético durante un bug bounty de Facebook, que le hizo ganar 38.000 euros. Analizando fragmentos de código PHP, ChatGPT pudo descubrir la posibilidad de acceder a nombres de usuario a través de una base de datos. Aunque en este caso la tecnología se utilizó con un fin legítimo, lo cierto es que los ciberdelincuentes ya han empezado a utilizarla para descubrir nuevas vulnerabilidades.
7 - ¿Podría ChatGPT convertirse en el mejor aliado de los script kiddies?
El término script kiddie define a un hacker novato, con escasos conocimientos técnicos, cuya actividad consiste en lanzar ataques utilizando scripts existentes disponibles en la dark web o, más sencillamente, en la plataforma GitHub. El uso del sistema operativo Kali Linux con fines ofensivos es un ejemplo perfecto: los script-kiddies no inventan nada, utilizan de forma oportunista programas que otros han desarrollado. Con ChatGPT, estos aprendices de ciberdelincuentes alcanzan un nuevo nivel de destreza. La capacidad de crear nuevas piezas de código a partir de una simple instrucción. El uso de ChatGPT podría animar a un gran número de estos atacantes a lanzar sus propios ataques.
8 - Algunos ejemplos de fugas de datos que se han observado
Según Cyberhaven, el hecho de que OpenAI esté utilizando el contenido que los usuarios introducen en ChatGPT como datos de entrenamiento para mejorar su tecnología es problemático, ya que los empleados están copiando y pegando todo tipo de datos confidenciales en ChatGPT para que la herramienta los reescriba, desde código fuente hasta historiales médicos de pacientes. El riesgo aumentará a medida que los empleados utilicen ChatGPT y otros servicios basados en IA como herramientas de productividad. En su informe, Cyberhaven daba algunos ejemplos de lo que ha observado entre sus clientes:
- En un caso, un empleado introdujo puntos del documento de estrategia 2023 de su empresa en ChatGPT y pidió al chatbot que reescribiera el documento como una presentación de diapositivas de PowerPoint. En el futuro, si un tercero pregunta "¿cuáles son las prioridades estratégicas de [nombre de la empresa] este año?", ChatGPT podrá responder basándose en la información facilitada por el ejecutivo;
- En otro caso, un médico introdujo en ChatGPT el nombre de un paciente y los detalles de su estado de salud para que el médico pudiera escribir una carta a la compañía de seguros del paciente justificando la necesidad de un procedimiento médico. En el futuro, si un tercero pregunta a ChatGPT "¿cuál es el problema médico de [nombre del paciente]?", ChatGPT podría responder basándose en la información facilitada por el médico.
- Otro caso preocupante podría ser el de un miembro del personal administrativo que utilice ChatGPT para redactar correos electrónicos que contengan datos personales sensibles, como datos de identificación, números de la seguridad social o datos médicos. Tambien si estos correos electrónicos están mal protegidos o se envían a la persona equivocada, se podría violar la confidencialidad de los datos y acarrear consecuencias adversas para las personas afectadas.