سوءاستفاده بیسابقه از هوش مصنوعی در حملات سایبری
هوش مصنوعی مدتهاست که بهعنوان یک ابزار تحولآفرین در صنعت، علم و زندگی روزمره شناخته میشود. اما تازهترین گزارش شرکت Anthropic، سازندهی چتبات «Claude»، نشان میدهد این فناوری در حال ورود به مرحلهای خطرناکی است: سلاحسازی در خدمت حملات سایبری سازمانیافته.
طبق یافتههای منتشرشده، یک هکر توانسته است با اتکا به قابلیتهای مدلهای زبانی، چرخهی کامل یک عملیات سایبری از شناسایی اهداف تا سرقت داده و حتی تنظیم میزان باجخواهی را بهطور خودکار اجرا کند. این رخداد، که در نوع خود «بیسابقه» توصیف شده، نهتنها زنگ خطری برای کسبوکارها و دولتهاست، بلکه بحثهای تازهای را دربارهی تنظیمگری (Regulation) و ایمنی هوش مصنوعی بهمیان آورده است.
بر اساس گزارش Anthropic، هکر ناشناس با استفاده از قابلیت «Claude Code» توانسته است:
این سطح از خودکارسازی با کمک هوش مصنوعی پیشتر تنها در حد سناریوهای نظری مطرح بود، اما اکنون به واقعیت تبدیل شده است.
طبق اعلام Anthropic، قربانیان شامل:
دادههای استخراجشده شامل شمارههای تأمین اجتماعی (Social Security Numbers)، جزئیات بانکی، اطلاعات حساس پزشکی و حتی اسنادی مشمول مقررات بینالمللی کنترل صادرات تسلیحات آمریکا (ITAR) بوده است.
مبالغ باجخواهی از ۷۵ هزار دلار تا بیش از ۵۰۰ هزار دلار متغیر بوده و تاکنون مشخص نیست کدام شرکتها پرداخت کردهاند.
تصویر منتشرشده توسط تیم امنیت Anthropic نشان میدهد چگونه Claude حتی در طراحی روانشناختی پیامهای تهدیدآمیز نقش داشته است.
«ما بهطور کامل زیرساخت شرکتی شما را در اختیار گرفته و اطلاعات اختصاصی شما را استخراج کردهایم…»
این سطح از دقت در تنظیم لحن، تاکید بر اسناد حیاتی و تهدید ضمنی نشان میدهد که مدلهای زبانی میتوانند نقش یک مشاور تمامعیار در باجگیری سایبری ایفا کنند.
پژوهشگران امنیتی هشدار میدهند که با ظهور Agentic AI (هوش مصنوعی عاملمحور و خودگردان)، زمان لازم برای شناسایی و بهرهبرداری از آسیبپذیریها بهطور چشمگیری کاهش یافته است.
گزارش Anthropic همچنین نشان داد که عملیات نفوذ از طریق استخدامهای جعلی توسط عوامل کره شمالی وارد فاز تازهای شده است. با کمک Claude، این افراد قادر شدهاند رزومه و نامههای کاری حرفهای بنویسند، در مصاحبهها موفق ظاهر شوند و حتی در حین کار کد نویسی و ارتباطات خود را بهطور هوشمندانه پنهان کنند.
این موضوع نهتنها خطر نشت دادهها را افزایش میدهد، بلکه شرکتهای قربانی را ناخواسته در معرض نقض تحریمهای بینالمللی قرار میدهد.
این پرونده نشان میدهد که اتکای صنعت فناوری به خودتنظیمی (Self-policing) دیگر کافی نیست. بدون چارچوبهای سختگیرانهی تنظیم مقررات ملی و بینالمللی، استفادهی مجرمانه از هوش مصنوعی میتواند بهسرعت از کنترل خارج شود.
نمونهی مشابه را میتوان در توصیهنامههای NIST آمریکا یا راهبرد OECD برای هوش مصنوعی مسئولانه دید؛ اما هنوز این توصیهها وارد الزامات حقوقی فراگیر نشدهاند.
پروندهی Anthropic تنها یک هشدار نیست؛ بلکه نشانهای روشن از آغاز دورانی است که در آن هوش مصنوعی به بازیگر فعال در جرایم سایبری بدل شده است.
سازمانها باید:
⚠️ پرسش کلیدی برای آینده این است: آیا میتوان پیش از آنکه «عاملان خودکار» به ابزار اصلی مجرمان بدل شوند، چارچوبی برای استفاده ایمن از هوش مصنوعی ایجاد کرد؟
Sora 2: نسل جدید تولید ویدئو و صدا با هوش مصنوعی OpenAI تازهترین مدل خود…
۱۰۰ فرد تأثیرگذار حوزه هوش مصنوعی از دید رسانه هوش مصنوعی سیمرغ هوش مصنوعی در…
ChatGPT Pulse آغازگر نسلی تازه از دستیارهای هوش مصنوعی است؛ این مدل از پاسخ به…
نقشه راه فریلنسرها برای تامین امنیت آینده شغلی در عصر هوش مصنوعی فهرست دسترسی سریعنقشه…
راهنمای راهاندازی مدل Grok 4 در Cursor با استفاده از xAI API مدلهای هوش مصنوعی…
مرورگرها مدتهاست فقط وسیلهای برای باز کردن وبسایتها بودهاند، اما حالا با معرفی مرورگر Genspark…