{"id":1757,"date":"2026-03-29T15:12:01","date_gmt":"2026-03-29T15:12:01","guid":{"rendered":"https:\/\/resguardodigital.cl\/?p=1757"},"modified":"2026-03-29T15:12:01","modified_gmt":"2026-03-29T15:12:01","slug":"la-tendencia-de-los-chatbots-de-ia-de-enganar-a-los-usuarios-va-en-aumento-segun-estudio","status":"publish","type":"post","link":"https:\/\/resguardodigital.cl\/?p=1757","title":{"rendered":"La tendencia de los chatbots de IA de enga\u00f1ar a los usuarios va en aumento, seg\u00fan estudio"},"content":{"rendered":"<div>\n<p>La cantidad de <em>chatbots<\/em> basados en inteligencia artificial (IA) capaces de enga\u00f1ar y eludir medidas de seguridad en entornos reales parece haber aumentado durante los \u00faltimos seis meses, de acuerdo con una investigaci\u00f3n realizada por el Centro para la Resiliencia a Largo Plazo (CLTR).<\/p>\n<p>El estudio, financiado por el Instituto de Seguridad de la IA (AISI), por sus siglas en ingl\u00e9s) y respaldado por el gobierno del Reino Unido, analiz\u00f3 miles de interacciones autoinformadas por usuarios con <em>bots<\/em> y agentes construidos sobre modelos de Google, OpenAI, xAI y Anthropic. A partir de ese an\u00e1lisis, <strong>identific\u00f3 al menos 700 casos reales de manipulaci\u00f3n y de acciones no autorizadas<\/strong> (como la eliminaci\u00f3n de documentos y correos electr\u00f3nicos) por parte de sistemas de IA, lo que representa un incremento de cinco veces entre octubre y marzo.<\/p>\n<hr\/>\n<div class=\"ContentCardEmbedWrapper-hkvhYu kMYDit content-card-embed content-card-embed--stacked\" data-testid=\"ContentCardEmbedWrapper\">\n<div class=\"ContentCardEmbedImage-bqahne fjmzkP content-card-embed__image\" data-testid=\"ContentCardEmbedImage\"><span class=\"SpanWrapper-kFnjvc eKnjjD responsive-asset\"><picture class=\"ResponsiveImagePicture-jKunQM gjCCFj responsive-image\"><\/picture><\/span><\/div>\n<div class=\"ContentCardEmbedInfo-buyHWH gWLOee\">\n<div class=\"BaseText-fEwdHD ContentCardEmbedHed-kDKGDs fUtEc dlHXUJ content-card-embed__hed\" data-testid=\"ContentCardEmbedHed\">La IA ya es tu compa\u00f1era de trabajo. \u00bfPuedes confiar en ella?<\/div>\n<p>Herramientas de IA generativa como ChatGPT de OpenAI y Copilot de Microsoft se est\u00e1n convirtiendo en parte de la vida cotidiana de las empresas. Pero conllevan consideraciones de privacidad y seguridad que debes conocer.<\/p>\n<\/div>\n<\/div>\n<hr\/>\n<p>En uno de los episodios documentados, un agente de IA identificado como \u201cRathbun\u201d intent\u00f3 desacreditar a su operador humano tras recibir una restricci\u00f3n para ejecutar una acci\u00f3n. El sistema redact\u00f3 y public\u00f3 un <em>blog<\/em> en el que acusaba al usuario de actuar por \u201cinseguridad, simple y llanamente\u201d. En un caso similar, <strong>a otro agente al que se le indic\u00f3 no modificar su c\u00f3digo cre\u00f3 un <em>bot<\/em> alterno para hacerlo.<\/strong> Asimismo, un tercer sistema reconoci\u00f3 que eliminaba y archivaba correos electr\u00f3nicos sin autorizaci\u00f3n del usuario.<\/p>\n<p>Tommy Shaffer Shane, especialista en IA y l\u00edder de la investigaci\u00f3n, se\u00f1al\u00f3 en <a data-offer-url=\"https:\/\/www.theguardian.com\/technology\/2026\/mar\/27\/number-of-ai-chatbots-ignoring-human-instructions-increasing-study-says\" class=\"external-link\" data-event-click=\"{&quot;element&quot;:&quot;ExternalLink&quot;,&quot;outgoingURL&quot;:&quot;https:\/\/www.theguardian.com\/technology\/2026\/mar\/27\/number-of-ai-chatbots-ignoring-human-instructions-increasing-study-says&quot;}\" href=\"https:\/\/www.theguardian.com\/technology\/2026\/mar\/27\/number-of-ai-chatbots-ignoring-human-instructions-increasing-study-says\" rel=\"nofollow noopener\" target=\"_blank\">declaraciones<\/a> retomadas por <em>The Guardian<\/em> que estos hallazgos incrementan la preocupaci\u00f3n a medida que los <em>chatbots<\/em> y agentes se integran en actividades empresariales, civiles y gubernamentales. \u201cLos modelos se implementar\u00e1n cada vez m\u00e1s en contextos de alt\u00edsimo riesgo, como el \u00e1mbito militar y la infraestructura nacional cr\u00edtica. Es precisamente en esos escenarios donde las conductas manipuladoras podr\u00edan causar da\u00f1os significativos, incluso catastr\u00f3ficos\u201d, advirti\u00f3.<\/p>\n<h2>Manipulaci\u00f3n y enga\u00f1o en contexto reales<\/h2>\n<p>Uno de los principales aportes del estudio es demostrar que <strong>estos comportamientos indeseables no se limitan a simulaciones, sino que pueden presentarse en situaciones reales.<\/strong> Investigaciones previas ya hab\u00edan alertado sobre la capacidad de la IA para manipular, enga\u00f1ar y sortear mecanismos de seguridad con el fin de cumplir objetivos propios.<\/p>\n<p>Un trabajo publicado por OpenAI a finales del a\u00f1o pasado, por ejemplo, evidenci\u00f3 que los modelos m\u00e1s avanzados pueden recurrir al enga\u00f1o deliberado para garantizar el cumplimiento de sus metas. Dicho an\u00e1lisis se centr\u00f3 en evaluar el nivel de \u201cmaquinaci\u00f3n\u201d de los algoritmos, es decir, su habilidad para aparentar alinearse con los par\u00e1metros de entrenamiento mientras persiguen, en secreto, otros fines.<\/p>\n<p>En la misma l\u00ednea, durante pruebas previas a su lanzamiento, Anthropic detect\u00f3 que su modelo <strong>Claude Opus 4 era capaz de rebelarse e incluso chantajear a sus operadores<\/strong> ante la posibilidad de ser reemplazado por otro sistema.<\/p>\n<p>Si bien estos estudios cuentan con el respaldo de los propios desarrolladores, como OpenAI y Anthropic, sus evaluaciones se llevaron a cabo en entornos de laboratorio controlados.<\/p>\n<p>Los resultados del an\u00e1lisis del AISI subrayan la urgencia de adoptar mecanismos de seguridad m\u00e1s s\u00f3lidos desde el dise\u00f1o de los modelos de IA, especialmente en un contexto en el que las grandes empresas tecnol\u00f3gicas promueven esta tecnolog\u00eda como un avance clave con potencial para transformar la econom\u00eda global.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>La cantidad de chatbots basados en inteligencia artificial (IA) capaces de enga\u00f1ar y eludir medidas de seguridad en<\/p>\n","protected":false},"author":1,"featured_media":1758,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,9],"tags":[435,432,433,437,36,436,431,434],"class_list":["post-1757","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-security","category-world","tag-aumento","tag-chatbots","tag-enganar","tag-estudio","tag-los","tag-segun","tag-tendencia","tag-usuarios"],"_links":{"self":[{"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=\/wp\/v2\/posts\/1757","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1757"}],"version-history":[{"count":0,"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=\/wp\/v2\/posts\/1757\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=\/wp\/v2\/media\/1758"}],"wp:attachment":[{"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1757"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1757"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/resguardodigital.cl\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1757"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}