به گزارش همشهری آنلاین، این روش که به آن “Fun-Tuning” گفته میشود، از تکنیکی خاص استفاده میکند که باعث میشود، جمینای (ابزار هوش مصنوعی گوگل) اطلاعات را لو داده و یا جوابهای اشتباه بدهد.
در واقع، با یک سری متنهای بیمعنی، مدل را دور میزند و به جوابهایی میرسد که نباید تولید شود!
بیشتر بخوانید:
این قضیه زنگ خطری جدی برای امنیت هوش مصنوعی محسوب میشود، زیرا نشان میدهد که حتی پیشرفتهترین مدلها هم میتوانند فریب بخورند!
source