ChatGPT & Co.: Amenazas y riesgos de seguridad identificados


Por primera vez, una empresa ha puesto a disposición de todos de forma gratuita un chatbot con tal variedad de capacidades. Hablamos de ChatGPT, el chatbot de la startup estadounidense OpenAI.

IA: modelos de lenguaje como ChatGPT en boca de todos

Ha pasado mucho tiempo desde que una innovación técnica influyó en el discurso público como lo viene haciendo ChatGPT desde hace varios meses. Independientemente de si se trata de escolares, estudiantes, empresarios, empleados de oficina o entusiastas de la tecnología interesados, todos esperan beneficiarse de la nueva herramienta.

ChatGPT puede responder una amplia gama de preguntas y funciona en muchos idiomas. Por eso mucha gente está jugando con la inteligencia artificial. Sin embargo, esto no es tanto un hito técnico por primera vez como una demostración del estado actual de dichos modelos de lenguajes grandes (LLM). Estos LLM son programas que pueden procesar la entrada del usuario automáticamente.

Maldición y bendición: BSI ve nuevas amenazas y riesgos de seguridad

A pesar de toda la alegría por las nuevas opciones que ahora están disponibles para el público en general, la Oficina Federal de Seguridad de la Información (BSI) advierte en un documento de posición sobre las amenazas y los riesgos de seguridad que surgen de su uso.

La BSI ha identificado una variedad de amenazas que pueden verse amplificadas por los modelos de lenguaje de IA. Probablemente ayuden a crear y optimizar malware y faciliten la generación de correos electrónicos de spam y phishing engañosamente genuinos. Dado que estos textos creados automáticamente apenas contienen errores ortográficos o gramaticales, se pierde uno de los criterios que hasta ahora ayudaban a desenmascarar dichos textos.

También existiría el riesgo de que atacantes potenciales redirigiran las entradas de los usuarios de dicho software a otros modelos de lenguaje para manipular la salida y acceder a información confidencial. Tampoco está claro hasta qué punto los operadores de estos modelos podrían evaluar los datos aportados y transmitirlos a terceros.

Contenido cuestionable y actualidad limitada.

Un riesgo claro es que los modelos de lenguaje aprendan de las aportaciones del usuario. Esto significa que las interacciones con los usuarios sirven como entrenamiento para el sistema, lo que por supuesto puede llevar a que actores maliciosos alimenten estos modelos con contenido que puede generar desinformación, propaganda y discursos de odio.

La información que los usuarios solicitan a dichos modelos lingüísticos suele estar desactualizada. ChatGPT suele señalar que el nivel de conocimiento sobre la IA sólo durará hasta 2021. Esto puede cambiar significativamente el gasto en eventos económicos o políticos.

Equipo editorial finanzen.net



ttn-es-28