هوش مصنوعی از لحاظ ریاضیاتی ناتوان است!

یک مطالعه علمی که چند ماهی از انتشار آن می‌گذرد اما تاکنون نادیده گرفته شده بود، مدعی است که به صورت ریاضیاتی ثابت کرده مدل‌های زبانی بزرگ (LLMs) «قادر به انجام وظایف محاسباتی و ایجنتی فراتر از یک سطح پیچیدگی خاص نیستند»؛ و نکته حیاتی اینجاست که این سطح از پیچیدگی، بسیار پایین است.

تینا مزدکی_مقاله‌ای که هنوز تحت داوری همتا (Peer Review) قرار نگرفته، توسط ویشال سیکا (CTO سابق غول نرم‌افزاری آلمان، SAP) و فرزندش وارین سیکا نوشته شده است. ویشال سیکا در حوزه هوش مصنوعی صاحب‌نظر است؛ او شاگرد «جان مک‌کارتی» (دانشمند برنده جایزه تورینگ و بنیان‌گذار رشته هوش مصنوعی که خودِ واژه هوش مصنوعی را ابداع کرد) بوده است.

ویشال سیکا به صراحت اعلام کرد: «هیچ راهی وجود ندارد که این مدل‌ها قابل‌اعتماد باشند.» او همچنین تاکید کرد که باید وعده‌های اغراق‌آمیز طرفداران هوش مصنوعی درباره سپردن مدیریت نیروگاه‌های هسته‌ای و کارهای حساس به ایجنت‌ها را فراموش کنیم.

هوش مصنوعی از لحاظ ریاضیاتی ناتوان است!

محدودیت‌های ذاتی در معماری هوش مصنوعی

برخلاف شعارهایی که مدیران عامل شرکت‌های فناوری در سخنرانی‌های خود می‌دهند، تحقیقات نشان می‌دهد که محدودیت‌های بنیادی در معماری فعلی هوش مصنوعی نهفته است. حتی محققان خودِ این صنعت نیز با این موضوع موافقند.

در ماه سپتامبر، دانشمندان OpenAI اعتراف کردند که «توهمات هوش مصنوعی» (Hallucinations) همچنان یک مشکل فراگیر در سیستم‌های پیشرفته است و دقت مدل‌ها «هرگز» به ۱۰۰ درصد نخواهد رسید.

برخی شرکت‌ها که سال گذشته با هدف تعدیل نیرو به سراغ ایجنت‌های هوش مصنوعی رفتند، به سرعت دریافتند که این ایجنت‌ها اصلاً در حدی نیستند که جایگزین انسان شوند؛ زیرا به شدت دچار توهم شده و به سختی می‌توانند وظایف محوله را به پایان برسانند.

آیا راهکاری وجود دارد؟

رهبران صنعت هوش مصنوعی اصرار دارند که می‌توان با ایجاد «حفاظ‌های خارجی» (Guardrails) خارج از مدل‌های اصلی، توهمات را فیلتر کرد. محققان OpenAI در همان مقاله‌ای که به عدم رسیدن به دقت ۱۰۰ درصدی اعتراف کردند، ایده «اجتناب‌ناپذیر بودن توهمات» را رد کردند و مدعی شدند که مدل‌ها می‌توانند در صورت عدم اطمینان، از پاسخ دادن خودداری کنند؛ هرچند در واقعیت، چت‌بات‌های محبوب فعلی برای حفظ جذابیت، به ندرت چنین رفتاری نشان می‌دهند.

سیکا با وجود اینکه معتقد است مدل‌های زبانی بزرگ دارای یک سقف کاراییِ غیرقابل عبور هستند، با این ایده موافق است که می‌توان توهمات را مهار کرد. او می‌گوید: «یک مدل زبانی بزرگِ "خالص" دارای این محدودیت ذاتی است؛ اما همزمان این درست است که شما می‌توانید در اطراف این مدل‌ها، اجزای دیگری بسازید که بر آن محدودیت‌ها غلبه کنند.»

منبع: futurism

۲۲۷۳۲۳

کد مطلب 2174146

برچسب‌ها

خدمات گردشگری

نظر شما

شما در حال پاسخ به نظر «» هستید.
1 + 6 =