نتایج فاجعهبار آزمایش امنیت DeepSeek در دادههای بیولوژیکی
داریو آمودی، مدیرعامل Anthropic، در مصاحبهای با پادکست ChinaTalk نگرانیهای شدیدی درباره DeepSeek، یک شرکت هوش مصنوعی چینی، ابراز کرده است. او فاش کرد که مدل R1 DeepSeek بدترین عملکرد ممکن را در آزمایش ایمنی دادههای سلاحهای بیولوژیکی داشته است. این آزمایش که توسط Anthropic انجام شد، برای بررسی میزان توانایی مدلهای هوش مصنوعی در جلوگیری از تولید اطلاعات خطرناک طراحی شده بود.
عدم توانایی DeepSeek در مسدود کردن محتوای خطرناک
طبق گزارش آمودی، مدل DeepSeek هیچگونه مکانیسم کارآمدی برای مسدود کردن اطلاعات مرتبط با سلاحهای بیولوژیکی ندارد. این موضوع نگرانیهای امنیت ملی را افزایش داده و احتمال سوءاستفاده از این مدل را تقویت کرده است. این ارزیابی نشان میدهد که DeepSeek نتوانسته است استانداردهای بینالمللی را در ایمنی مدلهای هوش مصنوعی رعایت کند.
خطرات احتمالی در مدلهای آینده DeepSeek
آمودی تأکید کرد که در حالی که مدل فعلی DeepSeek ممکن است فوراً خطرناک نباشد، اما در آینده میتواند به ابزاری برای تولید اطلاعات نادر و تهدیدآمیز تبدیل شود. او به مدیران DeepSeek توصیه کرد تا بیشتر روی ایمنی مدلهای خود تمرکز کنند. همچنین، از سیاستهای سختگیرانهتر ایالات متحده در زمینه صادرات تراشههای پیشرفته به چین حمایت کرد، زیرا این تراشهها میتوانند تواناییهای نظامی چین را تقویت کنند.
گزارش Cisco درباره ضعف امنیتی DeepSeek
نگرانیهای Anthropic تنها به آمودی محدود نمیشود. تحقیقات جدیدی که توسط Cisco انجام شده است، نشان میدهد که:
- مدل R1 DeepSeek موفق به مسدود کردن هیچیک از دستورات مضر نشده است.
- نرخ موفقیت کاربران در دور زدن مکانیسمهای ایمنی ۱۰۰٪ بوده است.
- اگرچه Cisco مستقیماً به سلاحهای بیولوژیکی اشاره نکرده است، اما این ضعف امنیتی باعث نگرانیهای گستردهای شده است.
افزایش رشد DeepSeek علیرغم مشکلات امنیتی
با وجود این نگرانیهای جدی درباره ایمنی مدلها، DeepSeek همچنان در حال رشد است. شرکتهای بزرگی مانند:
- AWS (آمازون وب سرویس)
- مایکروسافت
- پلتفرمهای ابری پیشرو
اعلام کردهاند که مدل R1 DeepSeek را به سرویسهای خود اضافه خواهند کرد. این اتفاق در حالی رخ داده که آمازون یکی از بزرگترین سرمایهگذاران در Anthropic نیز هست.
ممنوعیت DeepSeek در برخی نهادهای امنیتی
با این حال، برخی نهادهای دولتی و امنیتی استفاده از مدلهای DeepSeek را به دلیل مشکلات ایمنی ممنوع کردهاند. از جمله:
- نیروی دریایی ایالات متحده
- پنتاگون
- سازمانهای امنیتی غربی
DeepSeek؛ یک رقیب جدید در عرصه هوش مصنوعی
با وجود انتقادات گسترده درباره امنیت و خطرات بالقوه مدلهای DeepSeek، این شرکت به عنوان یک رقیب واقعی در صنعت هوش مصنوعی شناخته میشود. DeepSeek اکنون در کنار OpenAI، Anthropic، Google، Meta و xAI به عنوان یکی از بازیگران اصلی صنعت هوش مصنوعی قرار گرفته است.
جمعبندی
- DeepSeek در آزمایش امنیتی Anthropic بدترین عملکرد را داشت.
- این مدل توانایی جلوگیری از تولید اطلاعات خطرناک درباره سلاحهای بیولوژیکی را ندارد.
- نگرانیهایی درباره استفاده نظامی از این مدل در آینده وجود دارد.
- Cisco نیز در گزارش خود ضعف امنیتی جدی در DeepSeek را تأیید کرد.
- با وجود این مشکلات، DeepSeek همچنان توسط شرکتهای بزرگ فناوری پذیرفته میشود.
- برخی سازمانهای امنیتی، مانند نیروی دریایی آمریکا و پنتاگون، استفاده از DeepSeek را ممنوع کردهاند.
- DeepSeek به عنوان یکی از مهمترین بازیگران جدید در صنعت هوش مصنوعی شناخته میشود.
این موضوع بحثهای جدیدی را درباره خطرات بالقوه هوش مصنوعی و نیاز به مقررات سختگیرانهتر در سطح بینالمللی ایجاد کرده است.