الذكاء الاصطناعي الفائق يمكن أن يصبح كارثة — Vitalik Buterin

ذكاء اصطناعي الحرب AI war# يمكن أن يصبح الذكاء الاصطناعي المتقدم كارثة — فيتاليك بوتيرين

البشرية لا تتعامل بشكل جيد بما فيه الكفاية مع توافق القيم العالمية لضمان أن تعمل الذكاء الاصطناعي الفائق لصالح جميع الناس. جاءت هذه التصريحات من مؤسس Ethereum فيتالك بوتيرين.

لقد علق على منشور الفنان ثلاثي الأبعاد الذي يحمل الاسم المستعار Utah teapot.

كيف يكون توافق الذكاء الاصطناعي شيءًا؟ الجميع يسأل دائمًا "متوافق مع ماذا" ولا يوجد لدى أحد إجابة أخرى غير "قيم الإنسان". القيم الإنسانية المتماسكة ومتسقة مع الذات ليست شيئًا. لا زلت لا أفهم. ماذا نبحث عنه؟ إنه لأمر سخيف أن يكون هذا أمرًا متزايدًا…

— إبريق يوتا 🫖 (@SkyeSharkie) 24 أغسطس 2025

«كيف يمكن أن يوجد مفهوم توافق الذكاء الاصطناعي أصلاً؟ دائماً أسأل: “توافق مع ماذا؟”. لا أحد يجيب على أي شيء سوى “مع القيم الإنسانية”. لكن القيم الإنسانية الكاملة والمتسقة غير موجودة. لا أزال لا أفهم. ماذا نبحث عنه أصلاً؟ من السخيف أن يتحول هذا إلى صناعة متنامية. عمل وهمي»، كما كتب.

بوتيرين أكد أن هناك الكثير من الأشياء في العالم التي تتعارض مع المبادئ الأخلاقية. كمثال، ذكر القتل أو سجن الأبرياء.

«[…] نحن لم نكن جيدين بما فيه الكفاية في التنسيق لضمان أن الذكاء الاصطناعي الخارق الفردي سيتجنب حتى هذا»، أضاف المطور.

أشار غلاية يوتا إلى أن تطوير الذكاء الاصطناعي المتوافق يتحرك نحو تقييد الوصول العام إلى التطوير. في الوقت نفسه، تبيع الشركات الكبرى إصدارات من أنظمتها الذكية التي تساهم في ظواهر سلبية وتعمل كأدوات للحرب.

«أنا قلق للغاية من أن المركزية في الوصول إلى تقنيات الذكاء الاصطناعي تسمح بفرض ما ليس في الحقيقة مسائل أمان - على سبيل المثال، المناقشات حول “الذهان” الناتج عن LLM. وبالتالي، هناك خطر إلحاق الأذى بالثقافات الفريدة أو الهامشية وقيمها»، حسبما أشار المستخدم.

يشارك بوتيرين العديد من هذه المخاوف.

«أعتقد أن أكبر المخاطر ستأتي من العسكريين وهياكل أخرى تتمتع بسلطة كبيرة، مما يسمح لهم بالتحرر من القواعد الأمنية التي تكون مفروضة على الآخرين بشكل افتراضي»، أضاف المؤسس المشارك لإيثيريوم.

استخدم وعاء يوتا كمثال ذكاء اصطناعي ناشئ Anthropic. إنه يعمل على تطوير نسخ بديلة من النماذج "المدنية" ويقدمها للحكومات. يمكن استخدامها في الأعمال العسكرية أو الاستخباراتية.

أكد بوتيرين أن احتمال حدوث سيناريو كارثي للبشرية بسبب الذكاء الاصطناعي يزداد في حالة وجود وكيل ذكاء اصطناعي فائق واحد فقط، يمتلك إرادة خاصة وقدرة على العمل كموضوع.

إذا كانت البيئة متعددة الجوانب، فلن تتمكن أي من الأنظمة من السيطرة الكاملة على الوضع. ومع ذلك، فإن الآليات السوقية وحدها غير كافية لإنشائها. هناك حاجة إلى جهود متعمدة، بما في ذلك تغييرات في القوانين والحوافز التي لن تعجب الشركات الكبرى.

نذكّر أنه في عام 2022، دعا وزير تكنولوجيا المعلومات في الهند، رادجيف تشاندراسيكار، إلى تطوير معايير عالمية تضمن أمان الذكاء الاصطناعي للإنسان.

ETH4.81%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت