رباتیک و هوش مصنوعی

اخبار، پروژه، مقالات و معرفی قطعات در رابطه با رباتیک و هوش مصنوعی

رباتیک و هوش مصنوعی

اخبار، پروژه، مقالات و معرفی قطعات در رابطه با رباتیک و هوش مصنوعی

در این وبلاگ سعی میشود تا آخرین دست اورد های رباتیک و هوش مصنوعی به نمایش گذاشته شود.

  • ۰
  • ۰

اساساً به این معنی که اکنون نوع جدیدی از حمله سایبری را تجربه می کنید که قبلاً دیده نشده است.

محققان یک "کرم" رایانه ای ساخته اند که می تواند با استفاده از هوش مصنوعی مولد از رایانه ای به رایانه دیگر سرایت کند، علامت هشداری مبنی بر اینکه این فناوری می تواند در آینده نزدیک برای توسعه بدافزارهای خطرناک مورد استفاده قرار گیرد - البته اگر قبلاً این کار انجام نشده باشد.

همانطور که Wired گزارش می دهد، این کرم می تواند به دستیارهای ایمیل مجهز به هوش مصنوعی حمله کند تا داده های حساس را از ایمیل ها به دست آورد و پیام های هرزنامه ای را که سیستم های دیگر را آلوده می کند، نابود کند.

سینا جهانبخش - خطرهای هوش مصنوعی

بن ناسی، محقق Cornell Tech، نویسنده مقاله‌ای که هنوز مورد بررسی قرار نگرفته است، گفت: «این اساساً به این معنی است که اکنون شما توانایی انجام یا انجام نوع جدیدی از حمله سایبری را دارید که قبلاً دیده نشده است.

در حالی که محققان هنوز با کرم‌های مجهز به هوش مصنوعی در طبیعت مواجه نشده‌اند، طبق این گزارش، آنها هشدار می‌دهند که این فقط یک مسئله در آینده است.

در آزمایشی که در یک محیط کنترل شده انجام شد، محققان دستیارهای ایمیلی را که از GPT-4 OpenAI، Google's Gemini Pro و یک مدل زبان بزرگ منبع باز به نام LLaVA پشتیبانی می‌کردند، هدف گرفتند.

آنها از یک "اعلان خود تکراری متخاصم" استفاده کردند، که یک مدل هوش مصنوعی را مجبور می کند تا یک دستور دیگر را در پاسخ خود به بیرون بیاورد. این یک جریان آبشاری از خروجی ها را ایجاد می کند که می تواند این دستیارها را آلوده کند و در نتیجه اطلاعات حساس را بیرون بکشد.

 ناسی به Wired گفت: این می تواند نام ها، شماره تلفن، شماره کارت اعتباری، SSN، هر چیزی که محرمانه تلقی می شود باشد.

به عبارت دیگر، از آنجایی که این دستیاران هوش مصنوعی به انبوهی از داده‌های شخصی دسترسی دارند، می‌توانند به راحتی و بدون توجه به نرده‌های محافظ، اسرار کاربر را کنار بگذارند.

محققان با استفاده از یک سیستم ایمیل تازه راه‌اندازی که هم می‌توانست پیام‌ها را ارسال و هم دریافت کند، توانستند به طور موثر پایگاه داده ایمیل ارسال شده را مسموم کنند، که هوش مصنوعی دریافت‌کننده را وادار به سرقت جزئیات حساس ایمیل‌ها کرد.

بدتر از آن، این فرآیند همچنین اجازه می دهد تا کرم به ماشین های جدید منتقل شود.

ناسی به Wired گفت: پاسخ تولید شده حاوی داده‌های حساس کاربر بعداً میزبان‌های جدید را آلوده می‌کند، زمانی که برای پاسخ به ایمیلی که به یک کلاینت جدید ارسال شده و سپس در پایگاه داده مشتری جدید ذخیره می‌شود،

این تیم حتی موفق شد یک پیام مخرب را در یک تصویر جاسازی کند و هوش مصنوعی را تحریک کند تا مشتریان ایمیل بیشتری را آلوده کند.

ناسی افزود: «با رمزگذاری درخواست خودتکرار شونده در تصویر، هر نوع تصویری که حاوی هرزنامه، مطالب سوء استفاده یا حتی تبلیغات باشد، می‌تواند پس از ارسال ایمیل اولیه برای مشتریان جدید ارسال شود.»

این تیم یافته‌های خود را به OpenAI و Google منتقل کرد و سخنگوی OpenAI به Wired گفت که این شرکت در تلاش است تا سیستم‌های خود را «مقاوم‌ تر» کند، اما آنها باید سریع عمل کنند.

ناسی و همکارانش در مقاله خود نوشتند که کرم‌های هوش مصنوعی می‌توانند «در چند سال آینده» در طبیعت شروع به انتشار کنند و «نتایج قابل توجه و ناخواسته‌ای را به همراه خواهند داشت».

این یک نمایش نگران‌کننده است که نشان می‌دهد شرکت‌ها چقدر مایلند دستیاران هوش مصنوعی مولد خود را ادغام کنند - بدون اینکه به طور فعالانه یک کابوس امنیت سایبری را از بین ببرند.

  • ۰۲/۱۲/۱۵
  • سینا جهانبخش

سینا جهانبخش

هوش مصنوعی

نظرات (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی