در این نشست به معرفی حملات مسمومیت و استخراج مدل میپردازیم و روشهای انجام این حملات را بررسی مینماییم.
مهاجمان میتوانند با کنترل دادگان آموزش مدلهای یادگیری ماشین باعث شوند تا این مدلها در برابر یک سری از ورودیهای خاص پیشبینی اشتباهی داشته باشند. به این نوع حملات، مسمومیت مدل میگویند. با توجه به هزینههای فراوان جمعآوری دادگان و تولید یک مدل یادگیری ماشین، این مدلها به عنوان دارایی یک سازمان در نظر گرفته میشوند. پژوهشهای اخیر نشان دادهاند که مهاجمان میتوانند با دسترسی به ورودی و خروجیهای یک مدل، آن مدل را به سرقت ببرند و یک مدل مشابه برای آن تولید نمایند که به این گونه حملات، استخراج مدل گفته میشود.
اسلایدهای این ارائه را میتوانید در اینجا ملاحظه کنید.
ویدیوهای سخنرانیهای کارگاه در کانال آپارات انجمن رمز ایران قابل مشاهد است.