نیمه تاریک هوش مصنوعی مولد!
تاریخ انتشار: ۱۰ بهمن ۱۴۰۲ | کد خبر: ۳۹۶۳۴۶۹۲
هوش مصنوعی مولد به ویژه مدلهای زبانی بزرگ مانند ChatGPT، مهمترین محصول نهایی هستند که از زمان آغاز شدن پژوهش در حوزه هوش مصنوعی به کار گرفته شدهاند.
به نقل از فوربس، اهمیت هوش مصنوعی مولد، یک موضوع قابل توجه است. شرکت مشاور مدیریت «مککنزی»(McKinsey) تخمین میزند که هوش مصنوعی مولد میتواند سالانه ۷.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به گزارش ایسنا، هوش مصنوعی مولد با وجود پتانسیل فوقالعادهای که دارد، بدون کاستی نیست. در واقع، میتوان استدلال کرد که ورود آن فعلا اوضاع را به هم ریخته است. حال که ۱۰ ماه از انتشار ChatGPT 4 میگذرد، بیایید نگاهی به مشکلات اصلی هوش مصنوعی مولد بیندازیم و چند ایده را در مورد چگونگی غلبه کردن بر آنها بررسی کنیم.
۱. دقتهمه ما درباره مشکل توهم ChatGPT شنیدهایم. مدلهای زبانی بزرگ برای ارائه دادن پاسخهای احتمالی طراحی شدهاند که از دادههای آموزشی میگیرند و میتوانند کمی بیش از اندازه نسبت به ارائه دادن پاسخ مشتاق باشند.
این موضوع مشخص شده است که مدلهای زبانی بزرگ به جای گفتن «نمیدانم»، پاسخهایی را درست میکنند و مشکلات بسیاری را از آسیب رساندن به یک برند گرفته تا نقض کردن مقررات به وجود میآورند.
ایجاد حفاظهای اخلاقی و موضوعی برای مدلهای مولد هوش مصنوعی میتواند به حل کردن این مشکل کمک کند. بنابراین، تقویت کردن آموزش یک مدل هوش مصنوعی مولد با پایگاههای دانش مختص حوزههای سازمانی میتواند سودمند باشد.
با وجود این، شرکتها به منظور آماده شدن برای یک آینده قابل پیشبینی باید دقت بهتری را در اعلانهای مهندسی داشته باشند و یک انسان را در جریان نگه دارند تا همه اطلاعات تولید شده با مدل زبانی بزرگ را بررسی کند.
۲. سوگیریشاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمی باشد اما گسترش سریع هوش مصنوعی مولد این نگرانی را بیش از حد تصور تشدید کرده است. اکنون، به جای نگرانی در مورد یک سوگیری کوچک، مدیران شرکتها باید نگران باشند که سوگیری هوش مصنوعی بتواند فرهنگ شرکت آنها را به طور کامل تحت سلطه خود درآورد.
آیا سهولت استفاده کردن از برنامههایی مانند ChatGPT به این معناست که با توجه کردن به یک دیدگاه، تعدد صداهای ما خفه میشود؟ منتقدان ادعا کردهاند که این نرمافزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم میبخشد و ذاتا از نظر نژادی مغرضانه عمل میکند.
برای اطمینان یافتن از اینکه هوش مصنوعی مولد نمیتواند دیدگاههای سمی را در یک سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با این موضوع باشد و تلاش کند تا ارزشهای شرکتی و انسانی خود را به هوش مصنوعی القا کند.
۳. حجم اطلاعاتبا توجه به اینکه ایجاد محتوای جدید با هوش مصنوعی مولد بسیار آسان شده است، غرق در اطلاعات شدهایم. ایمیلها، کتابهای الکترونیکی، صفحات وب، پستهای منتشر شده در رسانههای اجتماعی و سایر آثار تولید شده، سیل اطلاعات را سرازیر میکنند.
حتی حجم درخواستهای شغلی نیز افزایش یافته که به دلیل توانایی در تولید سریع رزومههای سفارشیسازیشده و نامههای پوششی با هوش مصنوعی است. مدیریت کردن این حجم بزرگ از اطلاعات جدید، کار دشواری است.
چگونه میتوان از کوه اطلاعات ایجادشده در یک سازمان استفاده کرد؟ چگونه میتوان همه این اطلاعات را ذخیره کرد؟ چگونه میتوان با تحلیل دادهها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولید شده باشد، شایستگی اطلاعات و اشخاص چگونه ارزیابی خواهد شد؟
برای جلوگیری کردن از سردرگمی و فرسودگی کارمندان باید فناوریها و روشهای مناسبی را سازماندهی کرد زیرا حجم اطلاعات پس از این بیشتر هم خواهد شد.
۴. امنیت سایبریهوش مصنوعی مولد، قابلیت انجام دادن حملات سایبری جدید را به شدت افزایش داده است. از این فناوری میتوان برای تحلیل رمز به منظور افزایش دادن آسیبپذیری و نوشتن بدافزار استفاده کرد. همچنین، میتوان از هوش مصنوعی مولد برای تولید کردن فیلمهای جعلی و صداهای شبیهسازیشده به منظور کلاهبرداری و آدمربایی مجازی استفاده کرد.
هوش مصنوعی مولد میتواند ایمیلهای قانعکنندهای را در حمایت کردن از حملات فیشینگ و موارد دیگر بنویسد. علاوه بر این، رمزهایی که با کمک هوش مصنوعی نوشته میشوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان در معرض هک شدن باشند.
بهترین راه مقابله کردن با آتش، خود آتش است. هوش مصنوعی میتواند برای تحلیل کردن رمز در جستجوی آسیبپذیریها و انجام دادن آزمایشهای نفوذ مداوم و بهبود مدلهای دفاعی استفاده شود.
نباید آسیبپذیری شماره یک امنیت سایبری را در یک شرکت فراموش کرد. این آسیبپذیری، انسانها هستند. هوش مصنوعی مولد میتواند گزارشهای فعالیت کاربر را در جستجوی رفتار خطرناک تحلیل کند اما اولین خط دفاعی شرکت باید آموزش دادن کارکنانی باشد که بیشتر از پیش هوشیاری به خرج دهند.
۵. مالکیت معنویشکایتهای هنرمندان، نویسندگان، آژانسهای عکس و سایرین نشان میدهد که دادهها و سبکهای اختصاصی این افراد بدون اجازه آنها برای آموزش دادن نرمافزار هوش مصنوعی مولد استفاده شده است. شرکتهایی که از نرمافزار مولد هوش مصنوعی استفاده میکنند، نگران هستند که در این معضل گرفتار شوند.
اگر هوش مصنوعی مولد تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیت آن با چه کسی خواهد بود؟ اطلاعاتی که با استفاده از هوش مصنوعی ایجاد میشوند، متعلق به چه کسی هستند؛ اشخاص، شرکتهای نرمافزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟ تاکنون حکم این بوده که آثار تولید شده توسط انسانها با کمک هوش مصنوعی دارای حق چاپ هستند اما هنوز در مورد ثبت اختراعات صحبت نشده است.
توصیه کارشناسان این است که انسانها در جریان ایجاد همه اطلاعات قرار بگیرند و اطمینان حاصل شود که تیم حقوقی شرکت با توجه به سرعت تکامل قوانین، به انجام دادن بررسیهای لازم ادامه دهند.
۶. سایه هوش مصنوعی روی کارنظرسنجی شرکت رایانش ابری «سیلزفورس»(Salesforce) که روی ۱۴ هزار نفر کارمند در ۱۴ کشور انجام شده است، نشان میدهد نیمی از کارکنانی که از فناوریهای مولد هوش مصنوعی استفاده میکنند، این کار را بدون تایید سازمانهای محل اشتغال خود انجام میدهند.
بازگشت به روشهای پیشین در این مورد امکانپذیر نخواهد بود. بنابراین، بهتر است سیاستهایی را برای هوش مصنوعی مولد تعیین کرد و برنامههایی را برای آموزش دادن کارکنان به کار گرفت.
همچنین، کارمندان باید با سرپرستهای فناوری اطلاعات شرکت خود در مورد کارهایی صحبت کنند که برای کشف و مدیریت نرمافزارهای هوش مصنوعی مولد روی دستگاههای شرکت انجام میدهند.
هنوز مشکلاتی برای مدیریت کردن هوش مصنوعی مولد وجود دارد اما این فناوری باید مدیریت شود زیرا ما در بحبوحه روند تغییر کردن نحوه انجام دادن تجارت به شیوهای هستیم که پیشتر توسط هیچکس انجام نشده است.
هوش مصنوعی مولد، حوزههای گوناگونی را از جمله مراقبتهای بهداشتی، بانکداری، تدارکات، بیمه، خدمات مشتریان و تجارت الکترونیک تحت تاثیر قرار داده است.
به سختی میتوان صنعتی را یافت که به دلیل استفاده کردن از هوش مصنوعی مولد، ناگهان در معرض اختلالات برقآسا قرار نگیرد. آسیبپذیری و سرعت اختلال هرگز بیشتر از این نبوده است. هوش مصنوعی امسال باید در اولویت هیئت مدیره شرکتها باشد.
کانال عصر ایران در تلگراممنبع: عصر ایران
کلیدواژه: نیمه تاریک هوش مصنوعی هوش مصنوعی مولد مولد هوش مصنوعی انجام دادن زبانی بزرگ آسیب پذیری تولید شده شرکت ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.asriran.com دریافت کردهاست، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۶۳۴۶۹۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
مایکروسافت استفاده از ابزار هوش مصنوعی تشخیص چهره را برای پلیس آمریکا ممنوع کرد
ایتنا - مایکروسافت محدودیتهایی برای پلیس آمریکا در زمینه استفاده از فناوری تشخیص چهره از طریق ابزارهای هوش مصنوعی این شرکت ایجاد کرده است.
این غول فناوری آمریکایی با بهروزرسانی شرایط عمومی استفاده از خدمات «آژور اوپنایآی» Azure OpenAI Service که به متخصصان امکان دسترسی به مدلهای زبانی و نیز تعدیل محتوا و طراحی امن برنامههای کاربردی هوش مصنوعی را میدهد، به شکلی صریح استفاده از آن توسط پلیس آمریکا ممنوع کرده است.
مایکروسافت بهعنوان شریک مؤسسهٔ پژوهشی هوش مصنوعی آمریکایی «اوپنایآی» OpenAI، تمایلی ندارد که پلیس آمریکا از سرویس هوش مصنوعی این شرکت برای تشخیص چهره استفاده کند.
طبق گزارش وبسایت تخصصی TechCrunch، این شرکت تایید کرده که با بهروزرسانی شرایط عمومی استفاده از خدمات Azure OpenAI Service، دست به اعمال چنین ممنوعیتی زده است.
این سرویس به کسبوکارها و توسعهدهندگان امکان میدهد تا به مدلهای زبانی ارائه شده از سوی «اوپنایآی» مانند «جیپیتی۴» دسترسی داشته باشند.
در نسخه بهروزرسانی شده از شرایط عمومی استفاده از خدمات «آژور اوپنایآی» آمده است که نباید از این سرویس برای مقاصد تشخیص چهره توسط یا برای یک آژانس اجرای قانون در ایالات متحده استفاده شود.
ممنوعیت صریح
مایکروسافت همچنین به صراحت اعلام کرده است که مجریان قانون مجاز به استفاده از این ابزارهای جانبی برای «هیچیک از فناوریهای تشخیص چهره در زمان واقعی روی دوربینهای موبایل (...) با هدف تلاش برای شناسایی افراد در محیطهای کنترل نشده» نیستند.
به طور مشخص، افسران پلیس که مجهز به دوربینهایی با قابلیت تشخیص چهره هستند حین انجام گشتزنی نمیتوانند از خدمات «آژور اوپنایآی» در دوربینهای خود استفاده کنند.
این ممنوعیت بر اساس به روزرسانی جدید مایکروسافت برای دوربینهایی که روی داشبورد خودرو ماموران پلیس نصب میشوند نیز لحاظ شده است.
این به روزرسانی یک هفته پس از آن صورت میگیرد که «آکسون»، سازنده محصولات فناوری و تسلیحات برای مجریان قانون، از محصول جدیدی با استفاده از «جیپیتی۴»، یک مدل زبانی تحت هوش مصنوعی رونمایی کرد.
این محصول که «درافت وان» Draft One نام دارد، ابزاری مجهز به هوش مصنوعی است که میتواند به پلیس در تهیه و تولید گزارشهایی بر اساس محتوای دوربینهای نصب شده روی یونیفورم ماموران کمک کند.
آکسون پس از آنکه «اوپنایآی» در ژانویه گذشته شرایط عمومی استفاده از خدمات خود را به روز کرد و در آن طور صریح استفاده از مدل هوش مصنوعی برای مقاصد نظامی ممنوع اعلام نشده بود، توانست از فناوری این شرکت برای توسعه محصول خود استفاده کند.
تبعات ممنوعیت اعمال شده از سوی مایکروسافت برای دسترسی ماموران پلیس و مجریان قانون به ابزارهای هوش مصنوعی تشخیص چهره هنوز مشخص نیست.
باید دید که آیا پلیس ایالات متحده راههایی برای دور زدن این ممنوعیت پیدا میکند و اینکه آیا این اقدام مایکروسافت بر سایر شرکتهایی که فناوریهای مشابهی را ارائه میکنند تأثیر میگذارد یا خیر.