اساساً به این معنی که اکنون نوع جدیدی از حمله سایبری را تجربه می کنید که قبلاً دیده نشده است.
محققان یک "کرم" رایانه ای ساخته اند که می تواند با استفاده از هوش مصنوعی مولد از رایانه ای به رایانه دیگر سرایت کند، علامت هشداری مبنی بر اینکه این فناوری می تواند در آینده نزدیک برای توسعه بدافزارهای خطرناک مورد استفاده قرار گیرد - البته اگر قبلاً این کار انجام نشده باشد.
همانطور که Wired گزارش می دهد، این کرم می تواند به دستیارهای ایمیل مجهز به هوش مصنوعی حمله کند تا داده های حساس را از ایمیل ها به دست آورد و پیام های هرزنامه ای را که سیستم های دیگر را آلوده می کند، نابود کند.
بن ناسی، محقق Cornell Tech، نویسنده مقالهای که هنوز مورد بررسی قرار نگرفته است، گفت: «این اساساً به این معنی است که اکنون شما توانایی انجام یا انجام نوع جدیدی از حمله سایبری را دارید که قبلاً دیده نشده است.
در حالی که محققان هنوز با کرمهای مجهز به هوش مصنوعی در طبیعت مواجه نشدهاند، طبق این گزارش، آنها هشدار میدهند که این فقط یک مسئله در آینده است.
در آزمایشی که در یک محیط کنترل شده انجام شد، محققان دستیارهای ایمیلی را که از GPT-4 OpenAI، Google's Gemini Pro و یک مدل زبان بزرگ منبع باز به نام LLaVA پشتیبانی میکردند، هدف گرفتند.
آنها از یک "اعلان خود تکراری متخاصم" استفاده کردند، که یک مدل هوش مصنوعی را مجبور می کند تا یک دستور دیگر را در پاسخ خود به بیرون بیاورد. این یک جریان آبشاری از خروجی ها را ایجاد می کند که می تواند این دستیارها را آلوده کند و در نتیجه اطلاعات حساس را بیرون بکشد.
ناسی به Wired گفت: این می تواند نام ها، شماره تلفن، شماره کارت اعتباری، SSN، هر چیزی که محرمانه تلقی می شود باشد.
به عبارت دیگر، از آنجایی که این دستیاران هوش مصنوعی به انبوهی از دادههای شخصی دسترسی دارند، میتوانند به راحتی و بدون توجه به نردههای محافظ، اسرار کاربر را کنار بگذارند.
محققان با استفاده از یک سیستم ایمیل تازه راهاندازی که هم میتوانست پیامها را ارسال و هم دریافت کند، توانستند به طور موثر پایگاه داده ایمیل ارسال شده را مسموم کنند، که هوش مصنوعی دریافتکننده را وادار به سرقت جزئیات حساس ایمیلها کرد.
بدتر از آن، این فرآیند همچنین اجازه می دهد تا کرم به ماشین های جدید منتقل شود.
ناسی به Wired گفت: پاسخ تولید شده حاوی دادههای حساس کاربر بعداً میزبانهای جدید را آلوده میکند، زمانی که برای پاسخ به ایمیلی که به یک کلاینت جدید ارسال شده و سپس در پایگاه داده مشتری جدید ذخیره میشود،
این تیم حتی موفق شد یک پیام مخرب را در یک تصویر جاسازی کند و هوش مصنوعی را تحریک کند تا مشتریان ایمیل بیشتری را آلوده کند.
ناسی افزود: «با رمزگذاری درخواست خودتکرار شونده در تصویر، هر نوع تصویری که حاوی هرزنامه، مطالب سوء استفاده یا حتی تبلیغات باشد، میتواند پس از ارسال ایمیل اولیه برای مشتریان جدید ارسال شود.»
این تیم یافتههای خود را به OpenAI و Google منتقل کرد و سخنگوی OpenAI به Wired گفت که این شرکت در تلاش است تا سیستمهای خود را «مقاوم تر» کند، اما آنها باید سریع عمل کنند.
ناسی و همکارانش در مقاله خود نوشتند که کرمهای هوش مصنوعی میتوانند «در چند سال آینده» در طبیعت شروع به انتشار کنند و «نتایج قابل توجه و ناخواستهای را به همراه خواهند داشت».
این یک نمایش نگرانکننده است که نشان میدهد شرکتها چقدر مایلند دستیاران هوش مصنوعی مولد خود را ادغام کنند - بدون اینکه به طور فعالانه یک کابوس امنیت سایبری را از بین ببرند.