در دنیای فناوری امروزی، هوش مصنوعی به یکی از موضوعات مهم و جذاب تبدیل شده است که باعث توجه بسیاری از افراد شده است. شرکت OpenAI به عنوان یکی از پیشگامان در این زمینه، تلاش میکند تا با ارائه راهحلهای هوشمندانه و نوآورانه، مشکلات موجود در هوش مصنوعی را حل کند. اما همانطور که هر فناوری دیگری دارای چالشها و مسائل خاص خود است، هوش مصنوعی نیز با مشکلاتی روبهرو است که نیاز به بررسی دقیق و روشنی دارند.
در این مقاله، به بررسی ۸ مشکل بزرگ هوش مصنوعی OpenAI میپردازیم. این مشکلات از جنبههای مختلفی نظیر اخلاقی، فنی، و سیاستی بررسی میشوند و میتوانند تأثیرات قابل توجهی بر آینده این فناوری داشته باشند.
تهدیدات امنیتی و نگرانی های حفظ حریم خصوصی
تهدیدات امنیتی و نگرانیهای حفظ حریم خصوصی در مورد چتباتهای هوش مصنوعی موارد مهمی هستند که نباید بیتوجه به آنها باشیم. این مسائل به دلیل جنبههای مختلفی از جمله حفظ اطلاعات مالی، محرمانی اطلاعات محل کار، و عدم ایمنی در استفاده از خدمات OpenAI بررسی میشوند.
OpenAI سابقه گفتگوها و اطلاعات شخصی کاربران را در سرورهای خود حفظ میکند که ممکن است با تعدادی از گروههای شخص ثالث به اشتراک بگذارد. برخی از مسائل امنیتی نیز در گذشته برای OpenAI پیش آمده است. به عنوان مثال، در مارس 2023، یک نقض امنیتی باعث شد که برخی از کاربران ChatGPT اطلاعاتی را مشاهده کنند که باید متعلق به آنها نباشد، که این امر نشان دهنده ناکارآمدی در حفظ امنیت دادهها بوده است.
از طرفی، ایمنی اطلاعات کاربران یک مسئله بزرگ است که هر شرکت فناوری باید به آن توجه کند. با توجه به تعداد بالای کاربرانی که از چتباتهای هوش مصنوعی محبوب استفاده میکنند، این موضوع بسیار اهمیت دارد. به عنوان مثال، در گزارشی که رویترز منتشر کرده است، ChatGPT تنها در ژانویه 2023 ماهانه 100 میلیون کاربر فعال داشته است. باگهای امنیتی مانند اینها نه تنها به شکست فنی بلکه به مسائل قانونی و سیاسی نیز منجر میشوند، که مثال آن، ممنوعیت ChatGPT در ایتالیا و درخواست متوقف کردن پردازش اطلاعات کاربران ایتالیایی است.
به طور کلی، تهدیدات امنیتی و نگرانیهای حفظ حریم خصوصی نشان میدهند که هنوز مسیر طولانی برای بهبود استانداردهای امنیتی در هوش مصنوعی وجود دارد که باید توسط شرکتها و سازمانهای مربوطه آدرس داده شود.
تضعیف اخلاق و حسن نیت به دلیل هوش مصنوعی
توسط فنآوران، روزنامهنگاران، شخصیتهای سیاسی، و حتی رهبران مذهبی، خطرات احتمالی مربوط به هوش مصنوعی به صدا درآمده است. پاپ فرانسیس در یک نشست در واتیکان در سال 2023 و در پیام خود به مناسبت روز جهانی صلح در سال 2024، از کشورها خواست تا یک معاهده بینالمللی الزامی ایجاد و تصویب کنند که توسعه و استفاده از هوش مصنوعی را تنظیم میکند.
پاپ فرانسیس به توانایی هوش مصنوعی برای سوء استفاده و “ایجاد اظهاراتی که در نگاه اول ممکن به نظر برسد، اما بیاساس یا متضاد با اصول اخلاقی” هشدار داد. او تأکید کرد که چگونگی این امر میتواند منجر به کمپینهای اطلاعاتی نادرست، عدم اعتماد به رسانههای ارتباطی، مداخلات در انتخابات و دیگر مسائل شود – که در نهایت خطر “تشویش و مانع از حل صلح” را افزایش میدهد.
بروز سریع ابزارهای هوش مصنوعی مولد این نگرانیها را بیشتر کرده است. بسیاری از افراد از این فناوری برای انجام تکالیف نوشتاری خود استفاده کردهاند، که این میتواند واحدگی و خلاقیت تحصیلی را تهدید کند. همچنین، هوش مصنوعی ممکن است به طور مغرضانه برای تصمیمگیری درباره اموری مانند استخدام، وامدهی، کمکهای اجتماعی، یا حتی پناهندگی سیاسی به کار رود.
آموزش ChatGPT و مسائل مربوط به حریم خصوصی
نگرانیهای مرتبط با آموزش ChatGPT و مسائل حفظ حریم خصوصی:
پس از عرضه گسترده ChatGPT، برخی از منتقدان سوالاتی را مطرح کردند که چگونه OpenAI ابتدا مدل خود را آموزش داده است. با وجود بهبودهای اعمال شده در سیاستهای حفظ حریم خصوصی توسط OpenAI، همچنان احتمال وقوع نقضهایی در حفظ دادهها وجود دارد، به ویژه در مورد رعایت قوانین محافظت از دادههای عمومی (GDPR) که در اروپا اجرا میشود. به عنوان مثال، TechCrunch در گزارشی اشاره کرده است:
نامعلوم است که آیا دادههای شخصی ایتالیاییها که برای آموزش مدل GPT استفاده میشدهاند، در زمانی که OpenAI دادههای عمومی را از اینترنت حذف میکرد، با رعایت مبنای قانونی معتبر پردازش میشدهاند یا نه. همچنین، اگر کاربران تصمیم به حذف دادههای خود بگیرند، OpenAI این امکان را باید فراهم کند.
احتمالاً OpenAI در زمانی که برای اولین بار ChatGPT را آموزش میداد، اطلاعات شخصی را نیز به دست آورد. در حالی که قوانین حفظ حریم خصوصی در ایالات متحده کمتر قطعی هستند، قوانین داده اروپا دادههای شخصی را به خوبی محافظت میکنند، برخی از آنها را به صورت عمومی و برخی را به صورت خصوصی ارسال کنند.
ChatGPT پاسخ های اشتباه ایجاد می کند
ChatGPT معمولاً پاسخهای صحیحی ارائه میدهد، اما در برخی موارد میتواند پاسخهای نادرست و بیمعنیی نیز داشته باشد. این شرایط به ویژه در مواردی مانند توصیههای پزشکی یا تفسیر دقیق رویدادهای تاریخی، میتوانند خطرناک باشند.
OpenAI این مسأله را میشناسد و میگوید: “ChatGPT گاهی اوقات پاسخهایی با صدای معقول اما نادرست یا بیمعنی میدهد.” ChatGPT از اینترنت برای جستجوی پاسخها استفاده نمیکند، بلکه با استفاده از آموزشهایی که دریافت کرده، به پاسخهای ممکنی میرسد. این به معنای این است که در برخی موارد، ممکن است به پاسخهای نادرست برسد چون بر اساس آموزش آن عمل میکند.
در مارس 2023، ChatGPT به اینترنت متصل شد اما به سرعت قطع شد. OpenAI اطلاعات دقیقی درباره این قطعی ارائه نداده است، اما اعلام کرده است که “ChatGPT Browse beta ممکن است گاهی محتوا را به شکلی نمایش دهد که ما نمیخواهیم.”
ChatGPT سیستم جانبداری دارد
ChatGPT به نظر میرسد دارای جانبداری در سیستم خود است، زیرا بر اساس دادههای جمعی انسانها در سراسر جهان، گذشته و حال آموزش دیده است. این موضوع موجب میشود که تعصبات موجود در دنیای واقعی نیز در مدل ظاهر شود.
تحقیقات نشان داده است که ChatGPT پاسخهایی را ارائه میدهد که به تبعیض علیه جنسیت، نژاد و گروههای اقلیت اشاره دارند. این مسأله موجب شده است که OpenAI تلاش کند تا این تعصبات را کاهش دهد.
یکی از راههای توضیح این مسئله این است که بر دادهها به عنوان مشکل اشاره کنیم و بشریت را به دلیل تعصبات موجود در دادههای مورد استفاده از ChatGPT سرزنش کنیم. اما قسمتی از مسئولیت هم بر عهده OpenAI است که محققان و توسعهدهندگان آن دادههای مورد استفاده برای آموزش ChatGPT را انتخاب میکنند.
OpenAI نیز میداند که این یک مشکل است و گفته است که با دریافت بازخورد از کاربران و تشویق آنها به پرچمگذاری خروجیهای ChatGPT که بد، توهینآمیز یا به سادگی نادرست هستند، به “رفتار مغرضانه” رسیدگی میشود.
اگرچه میتوانید به این نکته اشاره کنید که ChatGPT نباید قبل از رفع این مشکلات برای عموم منتشر میشد، اما ممکن است OpenAI به دلیل رقابت برای ایجاد قدرتمندترین مدل هوش مصنوعی، احتیاط لازم را نادیده بگیرد و به سرعت مدلهای جدید را منتشر کند.
ChatGPT ممکن است مشاغل را از انسان بگیرد
ChatGPT میتواند منجر به گرفتن مشاغل انسانی شود. پس از توسعه و استقرار سریع ChatGPT، هنوز هم گرد و غبار این اثرات برطرف نشده است، اما این مسئله جلوی چندین برنامه تجاری متنوع را نگران نکرده است. برنامههایی مانند Duolingo و Khan Academy که از GPT-4 استفاده میکنند، به عنوان مثالهایی هستند.
Duolingo یک برنامه یادگیری زبان است، در حالی که Khan Academy یک ابزار آموزشی متنوع فراهم میکند. هر دوی این برنامهها یک معلم هوش مصنوعی را ارائه میدهند، که میتواند به عنوان یک شخصیت مبتنی بر هوش مصنوعی صحبت کند و یا به عنوان یک معلم AI که بازخورد مناسبی برای یادگیری فراهم میکند، عمل کند.
این ممکن است فقط یک آغاز باشد که هوش مصنوعی مشاغل انسانی را برای خود حفظ میکند. برنامههایی که بیشتر در معرض خطر هوش مصنوعی قرار دارند، شامل طراحی گرافیک، نویسندگی و حسابداری است. وقتی اعلام شد که نسخه بعدی ChatGPT در آزمون وکالت، آخرین مانع برای وکالت شدن، گذرانده است، مطمئناً احتمال اینکه هوش مصنوعی نیروی کار را در آینده نزدیک تغییر دهد، بیشتر شد.
با توجه به گزارش گاردین، شرکتهای آموزشی به شدت در بورسهای لندن و نیویورک تحت تأثیر قرار گرفتند که نشان میدهد هوش مصنوعی در عرصه مشاغل به دلایل مختلفی گرفتار مشکلاتی شده است، حتی شش ماه پس از راهاندازی ChatGPT در برخی بازارها.
ChatGPT آموزش چالش برانگیز است
ChatGPT یک منبع آموزشی چالش برانگیز است که میتواند به عنوان یک ابزار مفید برای تصحیح و بهبود نوشتههای دانشآموزان خدمت کند. معلمان با تخصیص تکالیف انگلیسی به ChatGPT آزمایش کردهاند و پاسخهایی بهتر از آنچه بسیاری از دانشآموزانشان میتوانستند ارائه دهند، دریافت کردهاند. این ابزار میتواند از نوشتن نامههای پوششی تا توصیف موضوعات اصلی در یک اثر ادبی معروف، همه این کارها را به خوبی و بدون تردید انجام دهد.
یکی از مثالهای این قابلیت ChatGPT، توضیح موضوعات رمان معروف “Neuromancer” نوشته ویلیام گیبسون است. اما این مسئله با خودش یک سؤال برانگیز مطرح میکند: آیا دانشآموزان باید در آینده این مهارت را بیاموزند؟
استنفورد دیلی گزارش میدهد که بررسیهای اولیه نشان میدهد که تعداد قابل توجهی از دانشآموزان از هوش مصنوعی برای کمک به انجام تکالیف و امتحانات استفاده کردهاند. این امر نشان میدهد که استفاده از این ابزار در آموزش و یادگیری به سرعت در حال گسترش است و معلمان باید با این واقعیت روبرو شوند.
ChatGPT می تواند به دنیای واقعی آسیب برساند
ChatGPT ممکن است به دنیای واقعی آسیب برساند. تلاشهایی صورت گرفت که یک شخص ChatGPT را جیلبریک کرده و نتیجه آن ایجاد یک مدل هوش مصنوعی بود که میتوانست از گاردریل OpenAI عبور کرده و از تولید متنهای توهینآمیز و خطرناک جلوگیری کند.
در گروه ChatGPT Reddit، یک گروه کاربری نامحدود مدل خود را Dan، که مخفف «Do Anything Now» است، نامگذاری کردند. متأسفانه، این اقدام منجر به افزایش کلاهبرداریهای آنلاین توسط هکرها شده است، زیرا آنها میتوانند با استفاده از این مدلها بدافزارهایی را ایجاد و ایمیلهای فیشینگ تولید کنند. این هکرها سرویسهای ChatGPT را بدون قاعده فروش میکنند، که میتواند منجر به ایجاد بدافزارها و تولید ایمیلهای فیشینگ با نتایج متفاوت در مورد بدافزارهای ایجاد شده توسط هوش مصنوعی شود.
اکنون، شناسایی یک ایمیل فیشینگ که برای استخراج اطلاعات حساس از شما طراحی شده است، با استفاده از متنهای تولید شده توسط هوش مصنوعی بسیار دشوارتر شده است. ChatGPT باعث محدود شدن خطاهای گرامری شده که قبلاً نشانگر احتمال فیشینگ بودند، که میتواند به طور خطرناکی انواع متنها از مقالات تا ایمیلهای مبهم را تولید کند.
OpenAI تمام قدرت را در اختیار دارد
OpenAI دارای توانایی بسیار زیادی است، که با خود مسئولیتهای بزرگی نیز همراه است، و OpenAI به طور عادلانه از بخشی از این توانایی استفاده میکند. این شرکت اولین شرکت هوش مصنوعی است که با چندین مدل هوش مصنوعی مولد از جمله Dall-E 2، GPT-3 و GPT-4، واقعاً جهان را به لرزه درآورده است.
به عنوان یک شرکت خصوصی، OpenAI مسئولیت انتخاب دادههای مورد استفاده برای آموزش ChatGPT را دارد و تصمیم میگیرد که به چه سرعتی پیشرفتهای جدید را ارائه کند. در حالی که برخی کارشناسان به خطرات ناشی از هوش مصنوعی هشدار می دهند، اما OpenAI نشانی از کاهش سرعت نمیدهد.
به جای آن، محبوبیت ChatGPT رقابتی بین شرکتهای بزرگ فناوری را برانگیخته است که برای ارائه مدلهای بزرگ بعدی هوش مصنوعی به یکدیگر رقابت میکنند، از جمله مواردی مانند هوش مصنوعی Bing از مایکروسافت و Bard از گوگل. به دلیل ترس از اینکه توسعه سریع ممکن است منجر به مشکلات ایمنی جدی شود، رهبران فناوری در سراسر جهان نامهای را صادر کردهاند که در آن درخواست تاخیر در توسعه هوش مصنوعی را مطالبه میکنند.
چگونه میتوان خطرات هوش مصنوعی را کاهش داد؟
هوش مصنوعی با داشتن مزایای فراوانی همچون سازماندهی دادههای سلامتی و پیشرفت خودروهای خودران، به طور مداوم به توسعه و پیشرفت میپردازد. با این حال، برخی معتقدند که برای بهرهبرداری حداکثری از این فناوری، لازم است مقررات گستردهای اعمال شود.
مایکل هینتون در یک گفتگو با NPR اظهار کرده است: “خطرات جدی واقعی وجود دارد که به زودی به هوشمندی بیشتر از خودمان دست پیدا کنیم، و این امکان دارد انگیزههای منفی و قدرت زیادی را به دست آورد که میتواند غیرقابل کنترل باشد. این مسئله فقط یک تخیل علمی نیست؛ بلکه یک مسئله جدی است که احتمالاً به زودی مواجه خواهیم شد، و سیاستمداران باید به این موضوع فکر کنند و در مورد اقداماتی که باید در این زمینه انجام دهند، تصمیمگیری کنند.”
نتیجه گیری
در نتیجه، هوش مصنوعی به عنوان یک موضوع جذاب در دنیای فناوری شناخته شده و شرکت OpenAI به عنوان یک پیشگام در این زمینه تلاش میکند تا مشکلات مربوط به هوش مصنوعی را با راهحلهای هوشمندانه و نوآورانه حل کند.
این مقاله به بررسی ۸ مشکل بزرگ هوش مصنوعی OpenAI میپردازد که از نظر اخلاقی، فنی، و سیاستی مورد بررسی قرار میگیرند، این مشکلات ممکن است تأثیرات قابل توجهی بر آینده این فناوری داشته باشند. دو مسئله مورد بررسی عبارتند از تهدیدات امنیتی و نگرانیهای حفظ حریم خصوصی در آینده هوش مصنوعی.