آیا هوش مصنوعی (AI) خطرناک است؟

در روز دوشنبه، 22 مه 2023، یک حساب کاربری تأیید شده توییتر به نام «فید بلومبرگ» توییتی را به اشتراک گذاشت که ادعا می‌کرد یک انفجار در پنتاگون همراه با یک تصویر وجود داشته است. اگر می‌پرسید چه ارتباطی با هوش مصنوعی (AI) دارد، این تصویر یک تصویر ساخته‌شده توسط هوش مصنوعی بود، توییتی که به سرعت در فضای مجازی منتشر شد و افت مختصری در بازار سهام ایجاد کرد. همه چیز می توانست بسیار بدتر باشد - یادآوری آشکار از خطرات هوش مصنوعی.

خطرات هوش مصنوعی

این فقط اخبار جعلی نیست که باید نگران آن باشیم. خطرات فوری یا بالقوه زیادی در ارتباط با هوش مصنوعی وجود دارد، از خطرات مربوط به حریم خصوصی و امنیت گرفته تا سوگیری و مسائل مربوط به حق چاپ. ما برخی از این خطرات هوش مصنوعی را بررسی خواهیم کرد، خواهیم دید که برای کاهش آنها در حال حاضر و در آینده چه کاری انجام می‌شود و می‌پرسیم که آیا خطرات هوش مصنوعی بیشتر از مزایای آن است یا خیر.

اخبار جعلی

در زمانی که دیپ فیک برای اولین بار منتشر شد، این نگرانی وجود داشت که ممکن است با نیت بد از آنها استفاده شود. همین امر را می توان برای موج جدید مولدهای تصویر هوش مصنوعی ، مانند DALL-E 2، Midjourney یا DreamStudio نیز گفت. در 28 مارس 2023، تصاویری از پاپ فرانسیس که توسط هوش مصنوعی ایجاد شده است جعلی با کت سفید Balenciaga و لذت بردن از چندین ماجراجویی، از جمله اسکیت بورد و بازی پوکر، در فضای مجازی منتشر شد. تا زمانی که تصاویر را از نزدیک مطالعه نکرده باشید، تشخیص این تصاویر از واقعی دشوار بود.

در حالی که مثال پاپ بدون شک کمی سرگرم کننده بود، تصویر (و توییت همراه) در مورد پنتاگون چیزی جز این بود. تصاویر جعلی تولید شده توسط هوش مصنوعی قدرت آسیب رساندن به شهرت، پایان دادن به ازدواج یا شغل، ایجاد ناآرامی سیاسی و حتی شروع جنگ را در صورت استفاده از افراد اشتباه دارند - به طور خلاصه، این تصاویر تولید شده توسط هوش مصنوعی در صورت سوء استفاده، پتانسیل بسیار خطرناکی را دارند.

با تولیدکننده‌های تصویر هوش مصنوعی که اکنون به‌طور رایگان در دسترس همه برای استفاده است، و فتوشاپ در حال افزودن یک تولید کننده تصویر هوش مصنوعی برای نرم‌افزار محبوب آن، فرصت دستکاری تصاویر و ایجاد اخبار جعلی بیشتر از همیشه است.

حریم خصوصی، امنیت، و هک

حفظ حریم خصوصی و امنیت نیز نگرانی های بزرگی در مورد خطرات هوش مصنوعی است، زیرا تعدادی از کشورها قبلاً ChatGPT OpenAI را ممنوع کرده اند. ایتالیا این مدل را به دلیل نگرانی های حفظ حریم خصوصی ممنوع کرده است، زیرا معتقد است که با مقررات حفاظت از داده های عمومی اروپا (GDPR) مطابقت ندارد، در حالی که دولت های چین، کره شمالی و روسیه به دلیل ترس از انتشار اطلاعات نادرست آن را ممنوع کردند..

پس چرا وقتی صحبت از هوش مصنوعی به میان می آید، اینقدر نگران حریم خصوصی هستیم؟ برنامه های هوش مصنوعی و سیستم ها مقادیر زیادی داده را برای یادگیری و پیش بینی جمع آوری می کنند. اما این داده ها چگونه ذخیره و پردازش می شوند؟ خطر واقعی نقض داده ها، هک شدن و افتادن اطلاعات به دست افراد نادرست وجود دارد.

این فقط اطلاعات شخصی ما نیست که در خطر است. هک هوش مصنوعی یک خطر واقعی است – هنوز این اتفاق نیفتاده است، اما اگر کسانی که قصد سوء قصد دارند سیستم‌های هوش مصنوعی را هک کنند، این می‌تواند عواقب جدی داشته باشد. به عنوان مثال، هکرها می توانند وسایل نقلیه بدون راننده را کنترل کنند، سیستم های امنیتی هوش مصنوعی را برای ورود به مکان های بسیار امن هک کنند، و حتی سیستم های تسلیحاتی با امنیت هوش مصنوعی را هک کنند.

کارشناسان آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی وزارت دفاع ایالات متحده (دارپا) این خطرات را تشخیص می‌دهند و در حال حاضر روی پروژه تضمین استحکام هوش مصنوعی در برابر فریب (GARD) دارپا کار می‌کنند و مشکل را از پایه حل می‌کنند. هدف این پروژه اطمینان از اینکه مقاومت در برابر هک و دستکاری در الگوریتم‌ها و هوش مصنوعی تعبیه شده است.

نقض حق نشر

یکی دیگر از خطرات هوش مصنوعی نقض حق چاپ است. این ممکن است به اندازه برخی خطرات دیگر که ذکر کردیم جدی به نظر نرسد، اما توسعه مدل‌های هوش مصنوعی مانند GPT-4 همه را در معرض افزایش خطر نقض قرار می‌دهد.

هر بار که از ChatGPT می‌خواهید چیزی برای شما ایجاد کند - خواه یک پست وبلاگ در سفر باشد یا یک نام جدید برای کسب و کارتان - اطلاعاتی را به آن می‌دهید که سپس برای پاسخ به سؤالات بعدی استفاده می‌کند. اطلاعاتی که به شما بازخورد می‌دهد می‌تواند حق نسخه‌برداری شخص دیگری را نقض کند، به همین دلیل است که استفاده از آشکارساز سرقت ادبی و ویرایش هر محتوای ایجاد شده توسط هوش مصنوعی قبل از انتشار آن بسیار مهم است.

سوگیری اجتماعی و داده

هوش مصنوعی انسان نیست، بنابراین نمی‌توان آن را مغرضانه کرد، درست است؟ اشتباه. افراد و داده‌ها برای آموزش مدل‌های هوش مصنوعی و چت ربات ها استفاده می‌شوند، که به این معنی است که داده‌ها یا شخصیت‌های مغرضانه منجر به هوش مصنوعی سوگیری می‌شوند. دو نوع سوگیری در هوش مصنوعی وجود دارد: سوگیری اجتماعی و سوگیری داده.

با تعصبات فراوانی که در جامعه روزمره وجود دارد، وقتی این سوگیری ها بخشی از هوش مصنوعی می شوند چه اتفاقی می افتد؟ برنامه نویسانی که مسئول آموزش این مدل هستند می توانند انتظاراتی مغرضانه داشته باشند که سپس به سیستم های هوش مصنوعی راه پیدا می کنند..

یا داده‌های مورد استفاده برای آموزش و توسعه هوش مصنوعی ممکن است نادرست، مغرضانه یا با سوء نیت جمع‌آوری شده باشند. این منجر به سوگیری داده ها می شود که می تواند به اندازه سوگیری اجتماعی خطرناک باشد. برای مثال، اگر سیستمی برای تشخیص چهره با استفاده از چهره‌های عمدتاً سفیدپوستان آموزش داده شود، ممکن است در تشخیص چهره‌های گروه‌های اقلیت مشکل داشته باشد و ظلم را تداوم بخشد.

روبات ها مشاغل ما را می گیرند

توسعه ربات‌های چت مانند ChatGPT و Google Bard نگرانی جدیدی را در مورد هوش مصنوعی ایجاد کرده است: خطری که روبات ها شغل ما را بگیرد. ما در حال حاضر شاهد جایگزینی نویسندگان در صنعت فناوری با هوش مصنوعی هستیم، توسعه دهندگان نرم افزار نگران هستند که شغل خود را به دست ربات ها از دست بدهند، و شرکت هایی که از ChatGPT برای ایجاد محتوای وبلاگ و محتوای رسانه های اجتماعی به جای استخدام نویسندگان انسانی استفاده می کنند.

طبق گزارش آینده مشاغل 2020 مجمع جهانی اقتصاد ، انتظار می‌رود هوش مصنوعی تا سال 2025 جایگزین 85 میلیون شغل در سراسر جهان شود. حتی اگر هوش مصنوعی جایگزین نویسندگان نشود، در حال حاضر به عنوان یک ابزار توسط بسیاری استفاده می‌شود. کسانی که در مشاغلی که در معرض خطر جایگزینی با هوش مصنوعی هستند، ممکن است نیاز به تطبیق برای زنده ماندن داشته باشند - برای مثال، نویسندگان ممکن است مهندسان سریع هوش مصنوعی شوند و آنها را قادر می‌سازد تا به جای جایگزینی با این مدل‌ها، با ابزارهایی مانند ChatGPT برای ایجاد محتوا کار کنند.

خطرات بالقوه هوش مصنوعی در آینده

اینها همه خطرات فوری یا در حال وقوع هستند، اما در مورد برخی از خطرات کمتر محتمل اما همچنان احتمالی هوش مصنوعی که در آینده می‌توانیم ببینیم، چطور؟ از جمله مواردی مانند برنامه‌ریزی هوش مصنوعی برای آسیب رساندن به انسان‌ها، به عنوان مثال، سلاح‌های خودمختار که برای کشتن در طول جنگ آموزش دیده‌اند.

پس این خطر وجود دارد که هوش مصنوعی بتواند روی هدف برنامه ریزی شده خود متمرکز شود و رفتارهای مخربی را در تلاش برای رسیدن به آن هدف به هر قیمتی ایجاد کند، حتی زمانی که انسان ها سعی می کنند جلوی این اتفاق را بگیرند.

اسکای نت به ما آموخت که وقتی هوش مصنوعی حساس می شود چه اتفاقی می افتد. با این حال، اگرچه مهندس گوگل بلیک لمواین ممکن است سعی کرده باشد همه را متقاعد کند که LaMDA، مولد چت بات هوشمند مصنوعی گوگل، حساس بود در ژوئن 2022، خوشبختانه تا به امروز هیچ مدرکی وجود ندارد که نشان دهد این درست است.

چالش های مقررات هوش مصنوعی

در دوشنبه، 15 مه 202، سام آلتمن، مدیر عامل OpenAI در اولین جلسه استماع کنگره در مورد هوش مصنوعی شرکت کرد ، هشدار داد، "اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود." CO OpenAI به صراحت اعلام کرد که طرفدار مقررات است و بسیاری از ایده های خود را به جلسه داد. مشکل این است که هوش مصنوعی با چنین سرعتی در حال تکامل است، دشوار است بدانید که از کجا باید با مقررات شروع کرد..

کنگره می‌خواهد از انجام اشتباهات مشابه در ابتدای عصر رسانه‌های اجتماعی جلوگیری کند، و تیمی از کارشناسان در کنار چاک شومر، رهبر اکثریت سنا، در حال کار بر روی مقرراتی هستند که شرکت‌ها را ملزم می‌کند تا فاش کنند که از چه منابع داده‌ای برای آموزش استفاده کرده‌اند. مدل ها و چه کسی آنها را آموزش داده است. با این حال، ممکن است مدتی طول بکشد تا اینکه دقیقاً چگونه هوش مصنوعی تنظیم می شود، و بدون شک واکنش منفی شرکت های هوش مصنوعی وجود خواهد داشت.

تهدید یک هوش مصنوعی عمومی

خطر ایجاد یک هوش عمومی مصنوعی (AGI) نیز وجود دارد که می‌تواند هر کاری را که یک انسان (یا حیوان) می‌تواند انجام دهد، انجام دهد. اغلب در فیلم‌های علمی تخیلی به آن اشاره می‌شود، احتمالاً هنوز ده‌ها سال با چنین ساخته‌ای فاصله داریم، اما اگر و زمانی که یک AGI ایجاد کنیم، می‌تواند تهدیدی برای بشریت باشد.

بسیاری از شخصیت‌های عمومی قبلاً این باور را تأیید می‌کنند که هوش مصنوعی یک تهدید وجودی برای انسان است، از جمله استیون هاوکینگ، بیل گیتس، و حتی اریک اشمیت، مدیرعامل سابق گوگل، که اظهار داشت: «هوش مصنوعی می‌تواند خطرات وجودی ایجاد کند و دولت‌ها باید بدانند چگونه مطمئن شوید که این فناوری توسط افراد شرور مورد سوء استفاده قرار نمی‌گیرد.»

بنابراین، آیا هوش مصنوعی خطرناک است و آیا خطر آن بیشتر از مزایای آن است؟ هیأت منصفه هنوز در مورد آن صحبت نمی کند، اما ما در حال حاضر شواهدی از برخی از خطرات اطراف خود را می بینیم. خطرات دیگر به این زودی ها به نتیجه نمی رسند. اما یک چیز واضح است: خطرات هوش مصنوعی را نباید دست کم گرفت. بسیار مهم است که اطمینان حاصل کنیم که هوش مصنوعی از همان ابتدا به درستی تنظیم شده است تا خطرات آینده را به حداقل برسانیم و امیدواریم کاهش دهیم.

.

پست های مرتبط:


31.05.2023