در روز دوشنبه، 22 مه 2023، یک حساب کاربری تأیید شده توییتر به نام «فید بلومبرگ» توییتی را به اشتراک گذاشت که ادعا میکرد یک انفجار در پنتاگون همراه با یک تصویر وجود داشته است. اگر میپرسید چه ارتباطی با هوش مصنوعی (AI) دارد، این تصویر یک تصویر ساختهشده توسط هوش مصنوعی بود، توییتی که به سرعت در فضای مجازی منتشر شد و افت مختصری در بازار سهام ایجاد کرد. همه چیز می توانست بسیار بدتر باشد - یادآوری آشکار از خطرات هوش مصنوعی.
خطرات هوش مصنوعی
این فقط اخبار جعلی نیست که باید نگران آن باشیم. خطرات فوری یا بالقوه زیادی در ارتباط با هوش مصنوعی وجود دارد، از خطرات مربوط به حریم خصوصی و امنیت گرفته تا سوگیری و مسائل مربوط به حق چاپ. ما برخی از این خطرات هوش مصنوعی را بررسی خواهیم کرد، خواهیم دید که برای کاهش آنها در حال حاضر و در آینده چه کاری انجام میشود و میپرسیم که آیا خطرات هوش مصنوعی بیشتر از مزایای آن است یا خیر.
اخبار جعلی
در زمانی که دیپ فیک برای اولین بار منتشر شد، این نگرانی وجود داشت که ممکن است با نیت بد از آنها استفاده شود. همین امر را می توان برای موج جدید مولدهای تصویر هوش مصنوعی ، مانند DALL-E 2، Midjourney یا DreamStudio نیز گفت. در 28 مارس 2023، تصاویری از پاپ فرانسیس که توسط هوش مصنوعی ایجاد شده است جعلی با کت سفید Balenciaga و لذت بردن از چندین ماجراجویی، از جمله اسکیت بورد و بازی پوکر، در فضای مجازی منتشر شد. تا زمانی که تصاویر را از نزدیک مطالعه نکرده باشید، تشخیص این تصاویر از واقعی دشوار بود.
در حالی که مثال پاپ بدون شک کمی سرگرم کننده بود، تصویر (و توییت همراه) در مورد پنتاگون چیزی جز این بود. تصاویر جعلی تولید شده توسط هوش مصنوعی قدرت آسیب رساندن به شهرت، پایان دادن به ازدواج یا شغل، ایجاد ناآرامی سیاسی و حتی شروع جنگ را در صورت استفاده از افراد اشتباه دارند - به طور خلاصه، این تصاویر تولید شده توسط هوش مصنوعی در صورت سوء استفاده، پتانسیل بسیار خطرناکی را دارند.
با تولیدکنندههای تصویر هوش مصنوعی که اکنون بهطور رایگان در دسترس همه برای استفاده است، و فتوشاپ در حال افزودن یک تولید کننده تصویر هوش مصنوعی برای نرمافزار محبوب آن، فرصت دستکاری تصاویر و ایجاد اخبار جعلی بیشتر از همیشه است.
حریم خصوصی، امنیت، و هک
حفظ حریم خصوصی و امنیت نیز نگرانی های بزرگی در مورد خطرات هوش مصنوعی است، زیرا تعدادی از کشورها قبلاً ChatGPT OpenAI را ممنوع کرده اند. ایتالیا این مدل را به دلیل نگرانی های حفظ حریم خصوصی ممنوع کرده است، زیرا معتقد است که با مقررات حفاظت از داده های عمومی اروپا (GDPR) مطابقت ندارد، در حالی که دولت های چین، کره شمالی و روسیه به دلیل ترس از انتشار اطلاعات نادرست آن را ممنوع کردند..
پس چرا وقتی صحبت از هوش مصنوعی به میان می آید، اینقدر نگران حریم خصوصی هستیم؟ برنامه های هوش مصنوعی و سیستم ها مقادیر زیادی داده را برای یادگیری و پیش بینی جمع آوری می کنند. اما این داده ها چگونه ذخیره و پردازش می شوند؟ خطر واقعی نقض داده ها، هک شدن و افتادن اطلاعات به دست افراد نادرست وجود دارد.
این فقط اطلاعات شخصی ما نیست که در خطر است. هک هوش مصنوعی یک خطر واقعی است – هنوز این اتفاق نیفتاده است، اما اگر کسانی که قصد سوء قصد دارند سیستمهای هوش مصنوعی را هک کنند، این میتواند عواقب جدی داشته باشد. به عنوان مثال، هکرها می توانند وسایل نقلیه بدون راننده را کنترل کنند، سیستم های امنیتی هوش مصنوعی را برای ورود به مکان های بسیار امن هک کنند، و حتی سیستم های تسلیحاتی با امنیت هوش مصنوعی را هک کنند.
کارشناسان آژانس پروژههای تحقیقاتی پیشرفته دفاعی وزارت دفاع ایالات متحده (دارپا) این خطرات را تشخیص میدهند و در حال حاضر روی پروژه تضمین استحکام هوش مصنوعی در برابر فریب (GARD) دارپا کار میکنند و مشکل را از پایه حل میکنند. هدف این پروژه اطمینان از اینکه مقاومت در برابر هک و دستکاری در الگوریتمها و هوش مصنوعی تعبیه شده است.
نقض حق نشر
یکی دیگر از خطرات هوش مصنوعی نقض حق چاپ است. این ممکن است به اندازه برخی خطرات دیگر که ذکر کردیم جدی به نظر نرسد، اما توسعه مدلهای هوش مصنوعی مانند GPT-4 همه را در معرض افزایش خطر نقض قرار میدهد.
هر بار که از ChatGPT میخواهید چیزی برای شما ایجاد کند - خواه یک پست وبلاگ در سفر باشد یا یک نام جدید برای کسب و کارتان - اطلاعاتی را به آن میدهید که سپس برای پاسخ به سؤالات بعدی استفاده میکند. اطلاعاتی که به شما بازخورد میدهد میتواند حق نسخهبرداری شخص دیگری را نقض کند، به همین دلیل است که استفاده از آشکارساز سرقت ادبی و ویرایش هر محتوای ایجاد شده توسط هوش مصنوعی قبل از انتشار آن بسیار مهم است.
سوگیری اجتماعی و داده
هوش مصنوعی انسان نیست، بنابراین نمیتوان آن را مغرضانه کرد، درست است؟ اشتباه. افراد و دادهها برای آموزش مدلهای هوش مصنوعی و چت ربات ها استفاده میشوند، که به این معنی است که دادهها یا شخصیتهای مغرضانه منجر به هوش مصنوعی سوگیری میشوند. دو نوع سوگیری در هوش مصنوعی وجود دارد: سوگیری اجتماعی و سوگیری داده.
با تعصبات فراوانی که در جامعه روزمره وجود دارد، وقتی این سوگیری ها بخشی از هوش مصنوعی می شوند چه اتفاقی می افتد؟ برنامه نویسانی که مسئول آموزش این مدل هستند می توانند انتظاراتی مغرضانه داشته باشند که سپس به سیستم های هوش مصنوعی راه پیدا می کنند..
یا دادههای مورد استفاده برای آموزش و توسعه هوش مصنوعی ممکن است نادرست، مغرضانه یا با سوء نیت جمعآوری شده باشند. این منجر به سوگیری داده ها می شود که می تواند به اندازه سوگیری اجتماعی خطرناک باشد. برای مثال، اگر سیستمی برای تشخیص چهره با استفاده از چهرههای عمدتاً سفیدپوستان آموزش داده شود، ممکن است در تشخیص چهرههای گروههای اقلیت مشکل داشته باشد و ظلم را تداوم بخشد.
روبات ها مشاغل ما را می گیرند
توسعه رباتهای چت مانند ChatGPT و Google Bard نگرانی جدیدی را در مورد هوش مصنوعی ایجاد کرده است: خطری که روبات ها شغل ما را بگیرد. ما در حال حاضر شاهد جایگزینی نویسندگان در صنعت فناوری با هوش مصنوعی هستیم، توسعه دهندگان نرم افزار نگران هستند که شغل خود را به دست ربات ها از دست بدهند، و شرکت هایی که از ChatGPT برای ایجاد محتوای وبلاگ و محتوای رسانه های اجتماعی به جای استخدام نویسندگان انسانی استفاده می کنند.
طبق گزارش آینده مشاغل 2020 مجمع جهانی اقتصاد ، انتظار میرود هوش مصنوعی تا سال 2025 جایگزین 85 میلیون شغل در سراسر جهان شود. حتی اگر هوش مصنوعی جایگزین نویسندگان نشود، در حال حاضر به عنوان یک ابزار توسط بسیاری استفاده میشود. کسانی که در مشاغلی که در معرض خطر جایگزینی با هوش مصنوعی هستند، ممکن است نیاز به تطبیق برای زنده ماندن داشته باشند - برای مثال، نویسندگان ممکن است مهندسان سریع هوش مصنوعی شوند و آنها را قادر میسازد تا به جای جایگزینی با این مدلها، با ابزارهایی مانند ChatGPT برای ایجاد محتوا کار کنند.
خطرات بالقوه هوش مصنوعی در آینده
اینها همه خطرات فوری یا در حال وقوع هستند، اما در مورد برخی از خطرات کمتر محتمل اما همچنان احتمالی هوش مصنوعی که در آینده میتوانیم ببینیم، چطور؟ از جمله مواردی مانند برنامهریزی هوش مصنوعی برای آسیب رساندن به انسانها، به عنوان مثال، سلاحهای خودمختار که برای کشتن در طول جنگ آموزش دیدهاند.
پس این خطر وجود دارد که هوش مصنوعی بتواند روی هدف برنامه ریزی شده خود متمرکز شود و رفتارهای مخربی را در تلاش برای رسیدن به آن هدف به هر قیمتی ایجاد کند، حتی زمانی که انسان ها سعی می کنند جلوی این اتفاق را بگیرند.
اسکای نت به ما آموخت که وقتی هوش مصنوعی حساس می شود چه اتفاقی می افتد. با این حال، اگرچه مهندس گوگل بلیک لمواین ممکن است سعی کرده باشد همه را متقاعد کند که LaMDA، مولد چت بات هوشمند مصنوعی گوگل، حساس بود در ژوئن 2022، خوشبختانه تا به امروز هیچ مدرکی وجود ندارد که نشان دهد این درست است.
چالش های مقررات هوش مصنوعی
در دوشنبه، 15 مه 202، سام آلتمن، مدیر عامل OpenAI در اولین جلسه استماع کنگره در مورد هوش مصنوعی شرکت کرد ، هشدار داد، "اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود." CO OpenAI به صراحت اعلام کرد که طرفدار مقررات است و بسیاری از ایده های خود را به جلسه داد. مشکل این است که هوش مصنوعی با چنین سرعتی در حال تکامل است، دشوار است بدانید که از کجا باید با مقررات شروع کرد..
کنگره میخواهد از انجام اشتباهات مشابه در ابتدای عصر رسانههای اجتماعی جلوگیری کند، و تیمی از کارشناسان در کنار چاک شومر، رهبر اکثریت سنا، در حال کار بر روی مقرراتی هستند که شرکتها را ملزم میکند تا فاش کنند که از چه منابع دادهای برای آموزش استفاده کردهاند. مدل ها و چه کسی آنها را آموزش داده است. با این حال، ممکن است مدتی طول بکشد تا اینکه دقیقاً چگونه هوش مصنوعی تنظیم می شود، و بدون شک واکنش منفی شرکت های هوش مصنوعی وجود خواهد داشت.
تهدید یک هوش مصنوعی عمومی
خطر ایجاد یک هوش عمومی مصنوعی (AGI) نیز وجود دارد که میتواند هر کاری را که یک انسان (یا حیوان) میتواند انجام دهد، انجام دهد. اغلب در فیلمهای علمی تخیلی به آن اشاره میشود، احتمالاً هنوز دهها سال با چنین ساختهای فاصله داریم، اما اگر و زمانی که یک AGI ایجاد کنیم، میتواند تهدیدی برای بشریت باشد.
بسیاری از شخصیتهای عمومی قبلاً این باور را تأیید میکنند که هوش مصنوعی یک تهدید وجودی برای انسان است، از جمله استیون هاوکینگ، بیل گیتس، و حتی اریک اشمیت، مدیرعامل سابق گوگل، که اظهار داشت: «هوش مصنوعی میتواند خطرات وجودی ایجاد کند و دولتها باید بدانند چگونه مطمئن شوید که این فناوری توسط افراد شرور مورد سوء استفاده قرار نمیگیرد.»
بنابراین، آیا هوش مصنوعی خطرناک است و آیا خطر آن بیشتر از مزایای آن است؟ هیأت منصفه هنوز در مورد آن صحبت نمی کند، اما ما در حال حاضر شواهدی از برخی از خطرات اطراف خود را می بینیم. خطرات دیگر به این زودی ها به نتیجه نمی رسند. اما یک چیز واضح است: خطرات هوش مصنوعی را نباید دست کم گرفت. بسیار مهم است که اطمینان حاصل کنیم که هوش مصنوعی از همان ابتدا به درستی تنظیم شده است تا خطرات آینده را به حداقل برسانیم و امیدواریم کاهش دهیم.
.