ده نکته درباره هوش مصنوعی از زبان داووس
داووس ۲۰۲۴ بر هوش مصنوعی تولیدی (Generative AI) تمرکز دارد و بر پتانسیل خلاقانه و چالشهای نظارتی آن تاکید مینماید.
اصطلاح دقیق در خصوص هوش مصنوعی «مولد» بودن است. حالا چرا «مولد»؟ در حالی که موجهای قبلی نوآوری در هوش مصنوعی همگی بر اساس یادگیری الگوها از مجموعه دادهها و تشخیص این الگوها در طبقهبندی دادههای ورودی جدید بودند، این موج نوآوری بر اساس یادگیری مدلهای بزرگ (مجموعه الگوها) و استفاده از این مدلها برای تولید خلاقانه متن، ویدیو، صدا و سایر محتوا است.
نه، هوش مصنوعی تولیدی توهمزنی نمیکند. زمانی که از مدلهای بزرگ آموزشدیده قبلی خواسته میشود محتوایی ایجاد کنند، همیشه الگوهای کاملاً کامل برای هدایت تولید در اختیار ندارند؛ در مواردی که الگوهای یادگرفته شده فقط به صورت جزئی شکل گرفتهاند، مدلها چارهای جز «پر کردن جای خالی» ندارند، که منجر به چیزی میشود که ما به عنوان «توهم» مشاهده میکنیم.
همانطور که برخی از شما ممکن است مشاهده کرده باشید، خروجیهای تولید شده لزوماً قابل تکرار نیستند. چرا؟ زیرا تولید محتوای جدید از الگوهای نیمهآموزشی شامل برخی تصادفات و اساساً یک فعالیت تصادفی است که به زبان ساده یعنی خروجیهای هوش مصنوعی تولیدی قطعی نیستند.
تولید غیرقطعی محتوا در واقع زمینه را برای ارزش پیشنهادی اصلی در کاربرد هوش مصنوعی تولیدی آماده میکند. نقطهی جالب برای استفاده، مواردی است که خلاقیت درگیر است؛ اگر نیازی به خلاقیت نباشد، به احتمال زیاد سناریو برای هوش مصنوعی تولیدی مناسب نیست. از این به عنوان یک آزمایش عیار استفاده کنید.
خلاقیت در مقیاس کوچک، سطوح بسیار بالایی از دقت را به ارمغان میآورد؛ استفاده از هوش مصنوعی تولیدی در حوزهی توسعهی نرمافزار برای خروجی کد که سپس توسط توسعهدهنده استفاده میشود، مثال خوبی است. خلاقیت در مقیاس بزرگ مدلهای هوش مصنوعی تولیدی را مجبور میکند جای خالیهای بسیار بزرگی را پر کنند؛ به همین دلیل است که مثلاً هنگام درخواست نوشتن یک مقاله تحقیقاتی، تمایل به دیدن استنادهای جعلی دارید.
به طور کلی، استعاره برای هوش مصنوعی تولیدی در مقیاس بزرگ، «کاهنهی دلپی» است.سخنان کاهنه مبهم بودند؛ به همین ترتیب، خروجیهای هوش مصنوعی تولیدی ممکن است لزوماً قابل تأیید نباشند. از هوش مصنوعی تولیدی سؤال بپرسید؛ اقدامات معاملاتی را به هوش مصنوعی تولیدی واگذار نکنید. در واقع، این استعاره فراتر از هوش مصنوعی تولیدی به تمام هوش مصنوعی گسترش مییابد.
همچنین بخوانید: راه اندازی خدمات پرداخت اکس تا اوسط سال ۲۰۲۴
متناقض به نظر میرسد، مدلهای هوش مصنوعی تولیدی میتوانند نقش بسیار مهمی در علوم و مهندسی داشته باشند، حتی اگر معمولاً با خلاقیت هنری مرتبط نباشند. کلید اینجا این است که یک مدل هوش مصنوعی تولیدی را با یک یا چند اعتبارسنج خارجی جفت کنید که برای فیلتر کردن خروجیهای مدل عمل میکند و برای مدل این است که از این خروجیهای تأیید شده به عنوان ورودی جدید برای چرخههای بعدی خلاقیت استفاده کند، تا زمانی که سیستم ترکیبی نتیجهی مطلوب را ایجاد کند.
استفاده گسترده از هوش مصنوعی تولیدی در محل کار منجر به یک «شکاف بزرگ عصر حاضر» خواهد شد؛ بین کسانی که از هوش مصنوعی تولیدی برای بهبود انفجاری خلاقیت و بازده خود استفاده میکنند و کسانی که فرآیند فکری خود را به هوش مصنوعی تولیدی واگذار میکنند و به تدریج به حاشیه رانده شده و در نهایت با آنها قطع همکاری میشود.
مدلهای به اصطلاح «عمومی» عمدتا «آلوده» هستند. هر مدلی که در اینترنت عمومی آموزش دیده باشد، به طور ضمنی روی محتوای افراطی آن، از جمله وب تاریک و موارد دیگر، آموزش دیده است. این پیامدهای جدی دارد: اول اینکه مدلها به احتمال زیاد روی محتوای غیرقانونی آموزش دیدهاند، و دوم اینکه به احتمال زیاد محتوای اسب تروجان به آنها نفوذ کرده است.
ایدهی «محدودیت برای هوش مصنوعی تولیدی» اساساً معیوب است. همانطور که در بند قبلی اشاره شد، زمانی که مدلها آلوده باشند، تقریباً همیشه راههایی برای فریب مدلها و دور زدن این محدودیتها وجود دارد. ما به رویکرد بهتر و امنتری نیاز داریم؛ رویکردی که منجر به اعتماد عمومی به هوش مصنوعی تولیدی شود.
با مشاهدهی استفاده و سوءاستفاده از هوش مصنوعی تولیدی، ضروری است که به درون خود نگاه کنیم و به یاد بیاوریم که هوش مصنوعی فقط یک ابزار است، نه بیشتر و نه کمتر، و باید از پیش رو به اطمینان برسیم که ابزارهای خود را به درستی شکل میدهیم، مبادا این ابزارها ما را شکل دهند.
همچنین بخوانید: استفاده مایکروسافت و زیمنس از هوش مصنوعی برای اتوماسیون صنعتی