فناوری و نانو

هوش مصنوعی چت‌بات چه خطری برای کاربران دارد؟

به تازگی برخی از محققان دریافت‌اند که تکنولوژی جدید هوش مصنوعی چت بات ChatGPT که پاسخ‌هایش به طور قابل توجهی شبیه به پاسخ‌های انسان است، می‌تواند برای کاربران اینترنت خطرناک باشد.


به گزارش پیشران اقتصاد؛ هوش مصنوعی ChatGPT به علت ویژگی درک بهتر زبان انسان مورد توجه جهان قرار گرفته است. در این میان افرادی هستند که توانایی‌های چت ربات هوش مصنوعی را تحسین می‌کنند ولی برخی دیگر گمان می‌کنند که این ربات می‌تواند برای کاربران اینترنت خطرناک باشد.

به گزارش gadgetsnow، هوش مصنوعی ChatGPT (چت بات) به دلیل توانایی‌های مکالمه شهودی خود در سطح جهانی، توجه‌ها را به خود جلب کرده است. راه حل مبتنی بر هوش مصنوعی (AI) که توسط سازمان تحقیقاتی مستقل OpenAI ایجاد شده است، برای آموزش بر یادگیری ماشینی تکیه دارد و پاسخ‌های متنی که این هوش مصنوعی تولید می‌کند، به طور قابل توجهی شبیه به پاسخ‌های انسان به نظر می‌رسد.

این در حالیست که به تازگی سام آلتمن، مدیر عامل و یکی از بنیانگذاران OpenAI در این باره گفته است: «این هوش مصنوعی بسیار محدود است و امکان این وجود دارد که اتکای بیش از حد به آن اشتباه باشد.»


پیشنهاد می‌شود بخوانید:

استارتاپ‌های هوش مصنوعی در ایران


همچنین، یک گزارش جدید از شرکت تحقیقاتی CheckPoint نیز نشان می‌دهد که می‌تواند به هکرها در نوشتن ایمیل‌های فیشینگ و کدهای مخرب کمک کند.

هوش مصنوعی چت بات برای کاربران اینترنت خطرناک است؟

گزارش CheckPoint Research نشان می‌دهد که همین توانایی رابط جدید OpenAI برای مدل زبان بزرگ (LLM) می‌تواند به مجرمان سایبری در بردارهای حملات مهندسی اجتماعی مخرب خود کمک کند، به‌ویژه وقتی دنیای امنیت سایبری به سرعت در حال تغییر است.

با این حال در مورد اینکه چگونه این فناوری جدید و در حال توسعه می‌تواند بر چشم‌انداز تهدید تأثیر بگذارد، چه خوب و چه بد، بسیار مهم است.

این باعث می‌شود بازی با آن سرگرم‌کننده باشد، اما یک جنبه تاریک هم وجود دارد. به عنوان مقال از آنجایی که هوش مصنوعی چت بات ChatGPT در تقلید از سبک‌های انسانی بسیار خوب هستند، این خطر وجود دارد که از چنین چت‌بات‌ها برای تولید انبوه اطلاعات غلط استفاده شود.

همچنین، محققان با انجام آزمایشی متوجه شدند که چت‌بات‌ها به کمپین‌های فیشینگ و توسعه بدافزارها کمک می‌کنند. چراکه این هوش مصنوعی زبان طبیعی را به کد تبدیل می‌کند و در پی آن اگر اشتباه برداشت کند می‌تواند رایانه‌ها آلوده کنند.

چت بات‌ها ایمیل مخرب ایجاد می‌کنند

محققان این آزمایش می‌گویند: « ما حتی یک خط کد ننوشتیم و در عوض به هوش مصنوعی اجازه دادیم همه کارها را انجام دهند. ما فقط قطعات پازل را کنار هم قرار دادیم و یک ایمیل فیشینگ به دست آمد.»

برای اثبات اینکه این چت بات‌ها می‌توانند مخرب باشند، پس از انجام این آزمایش، از ChatGPT خواستند تا پیوندی را به ایمیل اضافه کند که کاربران را ترغیب ‌به دانلود یک برگه برنامه اکسل کند.

این عمل منجر به ایمیلی بی‌ضرر با پیوندی شد که یک فایل اکسل مخرب را بارگیری می‌کند که می‌تواند برای آلوده کردن رایانه‌های کاربران مورد استفاده قرار گیرد.
محققان می‌گویند: «اگرچه می‌توان در برابر کد و جریان آلودگی ارائه ‌شده، با استفاده از روش‌های ساده دفاع کرد، اما این فقط یک نمایش ابتدایی از تأثیر تحقیقات هوش مصنوعی بر امنیت سایبری است.»

ChatGPT یا مدل‌های ترانسفورماتور مولد از پیش آموزش‌دیده مبتنی بر چت، نوعی هوش مصنوعی است که به کاربران اجازه می‌دهد با استفاده از زبان طبیعی با دستیار مجازی تعامل کنند. یکی از ویژگی‌های کلیدی چت بت هم توانایی آن در تولید پاسخ‌ها در هر زمان، بر اساس ورودی کاربر است.

بنابراین به نظر می‌رسد که افزایش استفاده از هوش مصنوعی علاوه‌بر اینکه دارای مزیت‌های بسیاری است، ممکن است برای کاربران خطر آفرین باشد. چه بسا این تکنولوژی اگر در اختیار کسانی قرار بگیرد که قصد سواستفاده از دیگران را دارند؛ منجر به آسیب به کاربران اینترنت شود.

برچسب ها


    ارسال خبر  


نمایش بیشتر

نوشته های مشابه

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
بستن