متا متعهد می‌شود که به توسعه هوش مصنوعی نپردازد.

February 7, 2025208 بازدیدزمان مطالعه: 2 دقیقه
متا متعهد می‌شود که به توسعه هوش مصنوعی نپردازد.

مدیر عامل شرکت متا، مارک زاکربرگ، گفت: "ما متعهد هستیم که هوش مصنوعی عمومی "ای جی آی" (AGI) را روزی برای عموم در دسترس قرار دهیم".

متا همچنین سند جدیدی منتشر کرده است که در آن اعلام کرده است که در صورت وجود سناریوهای خاص که ممکن است خطر یا آسیب ایجاد کند، سیستم هوش مصنوعی پیشرفته‌ای را به صورت عمومی منتشر نخواهد کرد.

این سند تحت عنوان "چارچوب هوش مصنوعی پیشرفته" (Frontier AI Framework) منتشر شده است که در آن متا دو نوع سیستم را به عنوان سیستم‌های با ریسک بالا شناسایی کرده است: "سیستم‌های با ریسک بالا" و "سیستم‌های فوق‌العاده خطرناک".

به گفته شرکت متا، برخی از سیستم‌های هوش مصنوعی مانند سیستم‌های "فوق‌العاده خطرناک- با ریسک بالا" می‌توانند به اجرای حملات سایبری یا شیمیایی یا بیولوژیکی کمک کنند، اما تفاوت این است که سیستم‌های "فوق‌العاده خطرناک" ممکن است به نتایج فاجعه‌آمیزی منجر شوند که قابل کنترل نیستند، در حالی که سیستم‌های "با ریسک بالا" می‌توانند به اجرای حمله کمک کنند، اما نسبتاً قابل کنترل هستند زیرا به اندازه سیستم‌های فوق‌العاده خطرناک مؤثر نیستند.

شایعه شده است که هوش مصنوعی عمومی قادر به یادگیری خود است و می‌تواند تمام وظایفی را که انسان‌ها می‌توانند انجام دهند، انجام دهد، بر خلاف هوش مصنوعی سنتی که فقط آنچه را که آموزش دیده است انجام می‌دهد. به همین دلیل، متا نگران است که این فناوری پیشرفته به دست افراد نادرست بیفتد و نتواند بر آن کنترل داشته باشد.

شایان ذکر است که متا خطرات سیستم‌ها را تنها بر اساس یک آزمایش تجربی طبقه‌بندی نمی‌کند، بلکه به ورودی‌های متعددی که توسط محققان داخلی و خارجی انجام شده و تحت بررسی تصمیم‌گیرندگان رده بالا قرار دارد، تکیه می‌کند.

اشتراک‌گذاری خبر

برچسب‌ها