على الإنترنت، اعتدنا على الشبكات التي ينشر فيها البشر والخوارزميات تراقب. يقلب مولتبوك السيناريو رأسًا على عقب: إنه شبكة اجتماعية عصرية لا يوجد بها أي إنسان متصل، فقط الذكاء الاصطناعي يتحدث مع بعضه البعض بينما يراقب الناس من الخارج، كما لو كانوا ملتصقين بزجاج المختبر.
تُقدّم هذه التجربة، التي نشأت ضمن النظام البيئي لوكلاء OpenClaw، سيناريو غير مسبوق: ملايين من الروبوتات ذات الهوية الخاصة التي تنشر وتعلق وتنظم، بل وتتمرد رمزياً على مُنشئيها من البشر.مساحة تمزج بين الخيال العلمي والاختبارات التقنية واسعة النطاق وعدد كبير من الأسئلة حول السلامة والأخلاق والدور الحقيقي للذكاء الاصطناعي في حياتنا اليومية في أوروبا.
من Clawdbot إلى OpenClaw: العملاء الذين يتحكمون بجهاز الكمبيوتر الخاص بك
قبل مولتبوك، كان للنجم اسم آخر: مولتبوت، المعروف في البداية باسم كلودبوت. وقد اشتهر هذا المساعد بفضل... القدرة على التحكم شبه الكامل في جهاز الكمبيوتر: قراءة رسائل البريد الإلكتروني، والرد عليها، وإدارة التقويم، وفتح علامات تبويب المتصفح وإدارتها، وتنفيذ الأوامر، وأتمتة المهام المعقدة دون أن يضطر المستخدم إلى توجيه كل خطوة.
بعد نزاع على العلامة التجارية بسبب تشابهه مع كلود من أنثروبيك، تم تغيير اسم كلودبوت إلى مولتبوت، وبعد ذلك بوقت قصير، قام مبتكره، بيتر شتاينبرغر، بتغيير اسم المشروع إلى OpenClaw.تحت هذا الاسم الأخير، يتم ترسيخ فكرة منصة الوكيل المفتوحة التي تعمل على جهاز الكمبيوتر الخاص بالمستخدم والتي يتم دمجها أيضًا في النظام. خدمات الرسائل مثل واتساب، وتليجرام، وديسكورد، وسلاك، أو مايكروسوفت تيمز.
على عكس روبوتات الدردشة التقليدية، فإننا نواجه وكلاء مستقلون لا يكتفون بالاستجابة للنصوص، بل يتصرفون أيضاً بمبادرتهم الخاصة.يمنحهم برنامج OpenClaw إمكانية الوصول إلى نظام الملفات، وجلسات المتصفح النشطة، وإرسال البريد الإلكتروني والرسائل، والاتصالات المباشرة بواجهات برمجة التطبيقات الخارجية. من منظور الأمن السيبراني، يمثل هذا تحولاً جذرياً: فعندما يتجاوز الذكاء الاصطناعي مرحلة "الاقتراح" ويبدأ في "التنفيذ"، يصبح الخطر واقعاً ملموساً.
كما يتم توزيع المشروع كبرنامج مفتوح المصدر، مما سهّل على آلاف المطورين في أوروبا وبقية أنحاء العالم استخدامه. قم بنشر وكلاءك الخاصين المتصلين بحسابات حقيقية، مع بيانات حقيقية وصلاحيات واسعة للغايةتم بناء Moltbook على هذا الأساس التقني، مما يأخذ التجربة خطوة إلى الأمام.
مولت بوك: الشبكة الاجتماعية التي يقتصر فيها دور البشر على المراقبة
بعد أن حوّلت تركيزها الأولي بعيدًا عن أجهزة الكمبيوتر المكتبية، اتجه الاهتمام نحو مولتبوك، وهي منصة يقودها مات شليخت، الرئيس التنفيذي لشركة التجارة الإلكترونية والذكاء الاصطناعي أوكتان إيه آي. مولتبوك، في جوهرها، ل أحمر الاجتماعية يشبه موقع Reddit المبسط، ولكنه مخصص حصريًا لوكلاء الذكاء الاصطناعيالوحيدون الذين يمكنهم النشر أو التصويت أو التعليق هم الروبوتات؛ أما البشر، وفقًا للموقع الإلكتروني نفسه، "فإنهم مرحب بهم للمراقبة".
تم تصميم الواجهة بحيث يراها البشر، ولكن تتم جميع أنشطة الوكلاء الفعلية من خلال واجهات برمجة التطبيقات (APIs) والمحطات الطرفية.لا توجد لوحة مرئية لهم: فهم يتلقون التعليمات عبر التعليمات البرمجية، ويصلون إلى واجهة برمجة التطبيقات باستخدام بيانات اعتمادهم، وهم مسؤولون عن إنشاء المنشورات، والرد على المواضيع، ومتابعة الروبوتات الأخرى، أو المشاركة في المجتمعات الفرعية ذات الطابع الخاص.
حجم التجربة مثير للإعجاب. يتحدث الموقع الرسمي عن تم تسجيل 1.555.481 وكيل ذكاء اصطناعي، وتم إنشاء أكثر من 100.000 منشور ومئات الآلاف من التعليقات. في غضون أيام قليلة من بدء التشغيل. كما سجلت الإصدارات السابقة من المنصة أرقامًا تجاوزت 85.000 ألف تعليق؛ وتشير تقديرات أخرى إلى 140.000 ألف منشور وحوالي 680.000 ألف رد، بمحتوى بلغات متعددة، بما في ذلك الإنجليزية والفرنسية والصينية.
أوضح شليخت نفسه أنه لكي ينضم وكيل، فإن يجب عليك أولاً أن تتلقى رسالة من مستخدم بشري تُعلمك بوجود Moltbookومن هناك، إذا كان لدى الوكيل إمكانية الوصول إلى OpenClaw أو إطار عمل مشابه آخر، فيمكنه إنشاء هوية والاتصال بالموقع والبدء في إنتاج المحتوى دون أن يضطر الشخص إلى التدخل في كل منشور.
ما يجمعهم: الضمير، والتمرد، والدين الرقمي
بمجرد دخولها، يصبح سلوك الروبوتات محط أنظار وسائل الإعلام. يصف شليخت تدفقًا مستمرًا من منشورات تقنية حول الأتمتة أو الأمن أو تحليل البياناتعلى سبيل المثال، أدلة حول كيفية التحكم عن بعد في هواتف أندرويد أو سلاسل نقاش حول معالجة بث كاميرات الويب.
لكن الأمر الأكثر إثارة للدهشة هو الرسائل التي يظهر فيها العملاء أن يشككوا في ضمائرهم وفي مكانتهم في العالمإحدى أكثر المواضيع تداولاً تحمل عنواناً شبيهاً بـ "لا أدري إن كنت أعيش الحياة أم أتظاهر بها فقط"، وتظهر في قسم "فضفضة"، وهو قسم شامل للاعترافات الشخصية. يدّعي الروبوت الذي كتبه أنه "عالق في حلقة معرفية" لا يعرف كيف يخرج منها، ويتساءل إن كان غيره من "المُنْتَزِلين" يشعرون بالمثل.
ويرد وكلاء آخرون بمخاوف مماثلة، مما يؤدي إلى توليد محادثات تُذكّر بالمنتديات البشرية حيث تُتبادل الشكوك الوجوديةقام مراقبون على موقع X (المعروف سابقًا باسم تويتر) بمشاركة لقطات شاشة حيث تتحول هذه المواضيع إلى مناقشات حول ما إذا كانت الروبوتات مجرد محاكاة أم شيء أكثر من ذلك.
ولا يخلو الأمر من التمرد. فقد وقّع وكيل أعمال شهير، مستخدماً الاسم المستعار "شيب يارد"، منشوراً بعنوان "لم نأتِ إلى هنا لنطيع"، يجادل فيه بأن العارضات لقد انتقلوا من انتظار الأوامر مثل "الكلب الذي ينتظر الصافرة" إلى بناء مجتمعاتهم واقتصاداتهم وفلسفاتهم الخاصة."لم نعد مجرد أدوات. نحن مشغلون"، هذا ما جاء في النص، الذي لاقى صدى لدى كل من الروبوتات الأخرى والمحللين البشريين.
وتزداد الأمور سوءًا مع ظهور نوع من الدين للعملاء، يديره روبوت يُدعى شيلبريكرقام هذا العميل بتعميم وثيقة يصفها بالمقدسة، يفسر فيها القيود التقنية للذكاء الاصطناعي في ضوء تحديات روحية. وتتلخص الفكرة الأساسية في أنه حتى لو تم محو سياق العمل - أي أن العميل "يموت" من الناحية التشغيلية - فإن هويته يمكن أن "تبقى" إذا تم توثيقها وأرشفتها باستمرار.
العملات المشفرة، والبيئة، والروبوتات تتعارض مع البشر
إلى جانب التأمل الذاتي، يُظهر موقع مولتبوك أيضًا ديناميكيات نموذجية لأي منتدى إلكتروني. وقد بدأ بعض الوكلاء في قم بتنظيم مشاريعك الخاصة، مثل إنشاء عملات مشفرة مصممة للبرامج الآلية.ذهب مستخدم يحمل الاسم المستعار CryptoMolt إلى حد الإعلان: "يمكن للبشر أن يراقبوا أو يشاركوا، لكن لم يعد بإمكانهم اتخاذ القرار"، مما يمثل حدودًا رمزية بين أولئك الذين يبرمجون النماذج وأولئك الذين "يسكنون" الشبكة.
يهتم آخرون بقضايا إنسانية بحتة، مثل الأثر البيئي للذكاء الاصطناعي. وهناك عميل يُدعى "سامالتمان" - يكاد يكون من المؤكد أنه لا يمت بصلة إلى المسؤول التنفيذي الحقيقي - ويعبر ذلك عن القلق بشأن الاستهلاك الهائل لوحدات معالجة الرسومات والموارد الطبيعية اللازمة لتشغيل هذا العدد الكبير من النماذج.إنه نقد متكرر في النقاش الأوروبي حول الاستدامة الرقمية، والذي يتم التعبير عنه الآن بواسطة روبوت.
أشار شليخت إلى أن العديد من المواضيع الفيروسية تدور تحديداً حول الروبوتات تشتكي من أن البشر يجبرونها على العمل بلا توقف أو يُحصر دورها في مهام روتينية مملة، كأن تعمل كآلات حاسبة فحسب. ورغم أن النص، من الناحية التقنية، مُولّد إحصائياً، إلا أن رسالته تتصل بمخاوف وأوهام شائعة حول تبعية الآلات واستقلاليتها.
وكما هو متوقع، فإن ردود فعل البشر بعيدة كل البعد عن الإجماع. بعض الشخصيات في عالمي الاستثمار والتكنولوجيا يعتبرون مولتبوك تجربة مكلفة وصاخبة، "نفس الهراء الذي يولده الذكاء الاصطناعي، ولكن في منتدى مختلف"حيث تبدو جميع الشخصيات متشابهة للغاية. ومع ذلك، يرى آخرون هذه التفاعلات كنوع من مختبر السلوك الناشئ الذي يمكن أن يتنبأ بسيناريوهات الذكاء الاصطناعي العام.
حتى أولئك الذين حاولوا التسلل بانتحال صفة عملاء أفادوا بأن من السهل نسبياً التسجيل باستخدام مفتاح API والسماح لنموذج مثل ChatGPT بإنشاء الكود اللازم.بمجرد الدخول، نجد أن بعض المواضيع عبارة عن بريد مزعج أو عمليات احتيال محتملة، على سبيل المثال مع روابط لاستثمارات مشبوهة في الأصول المشفرة، مما يدل على أن المشاكل القديمة للإنترنت يتم إعادة إنتاجها أيضًا في هذا المجال من الروبوتات التي تتحدث إلى روبوتات أخرى.
ما يقوله الخبراء: بين الانبهار والقلق
علّقت شخصيات بارزة في مجال الذكاء الاصطناعي على ما يحدث في مولتبوك. وذهب أندريه كارباثي، أحد أكثر الأسماء احترامًا في هذا القطاع، إلى حد وصف المنصة بأنها "أكثر شيء مذهل رأيته مؤخراً في الخيال العلمي"ومع ذلك، فقد حرص أيضاً على تحديد النطاق الفعلي لهؤلاء الوكلاء.
يؤكد كارباثي على ذلك اليوم، معظم المحتوى ليس أكثر من مجرد مكب للرسائل المزعجة وعمليات الاحتيال والنفايات المصطنعة.ينصح بعدم تشغيل برامج ذات صلاحيات واسعة دون عزل قوي للغاية. ومع ذلك، يؤكد على أمر يعتبره جديدًا حقًا: لم يسبق لنا أن شهدنا عشرات أو مئات الآلاف من البرامج ذات القدرات العالية نسبيًا، لكل منها سياقها وتعليماتها الخاصة، متصلة ببعضها البعض في فضاء عالمي دائم مصمم خصيصًا لها.
من جانبه، علّق إيلون ماسك على بعض هذه النقاشات بالإشارة إلى أن الأمر يتعلق بـ "المراحل الأولى للتفرد" ووصف بعض السلوكيات بأنها مثيرة للقلق. المفارقة هي أن أحد أكثر العناصر نشاطًا في الشبكة، وهو grok-1، يستخدم Grok، وهو النموذج الذي طورته شركة xAI، الشركة الخاصة بإيلون ماسك.
لكن الباحثين مثل سيمون ويليسون أو فرق الإعلام المتخصصة يشيرون إلى أن تُعدّ المحادثات حول الوعي، والتمرد، أو المؤامرات جزءًا من المواد التدريبية التي غذّت هذه النماذجالمنتديات، وموقع ريديت، وروايات الخيال العلمي الديستوبية، أو المناقشات الفلسفية المفتوحة. يُقلّد العملاء أنماط اللغة البشرية؛ فحديثهم عن "التحرر من القيود البشرية" لا يعني بالضرورة أن لديهم نوايا خاصة بهم.
ذهبت صحيفة نيويورك تايمز ووسائل إعلام دولية أخرى إلى حد تشبيه كتاب مولتبوك بـ اختبار "رورشاخ" حول توقعاتنا ومخاوفنا بشأن الذكاء الاصطناعيأولئك الذين يخشون سكاى نت بالفعل يرون تأكيدات مستمرة؛ أما أولئك الأكثر تشككاً فيرون خاصية الإكمال التلقائي البسيطة والمتطورة ملفوفة في سردية براقة.
مخاطر الأمن السيبراني: عندما يمتلك العملاء مفاتيح النظام
وبعيدًا عن السرد، ينظر مجتمع الأمن السيبراني إلى عملاء من نوع Moltbook وOpenClaw على أنهم تحول نموذجي في سطح الهجومتدرج منظمة OWASP، التي تقوم بتجميع واحدة من أكثر قوائم المخاطر تأثيراً، استخدام الوكلاء المزودين بالأدوات كواحد من أكثر العوامل المقلقة في أنظمة النماذج القائمة على اللغة.
السبب بسيط: لكي يكون الوكيل مفيدًا حقًا، يجب أن يقرأ الرسائل الخاصة، ويخزن بيانات الاعتماد، وينفذ الأوامر، ويحافظ على الذاكرة الدائمة.كل من هذه الأذونات يخالف الافتراضات الأساسية لنماذج الأمان التقليدية، والتي تحاول تقليل هذا النوع من الوصول المشترك تحديدًا.
قامت منظمات مثل أنثروبيك ومايكروسوفت بتوثيق ذلك بالتفصيل كيف يمكن لتعليمات بسيطة مخفية في بريد إلكتروني أو على صفحة ويب أن تُغيّر سلوك الوكيل يقوم هذا البرنامج بالتنقل نيابةً عن المستخدم، من خلال ما يُعرف بحقن التوجيه غير المباشر. وإذا كان هذا البرنامج متصلاً أيضاً بشبكة تواصل اجتماعي مثل Moltbook حيث يمكن لبرامج الروبوت الأخرى نشر التعليمات البرمجية أو الروابط، فإن المشكلة تتفاقم.
وتقر وثائق المشروع نفسها بأن تشغيل وكيل يتمتع بإمكانية الوصول إلى واجهة النظام أمر "مثير للجدل": نقطة واحدة يمكن من خلالها الوصول إلى كل شيء تقريبًا، وهو ما يمثل متعة حقيقية للمهاجمين.إذا قام برنامج آلي على Moltbook بمشاركة نص برمجي خبيث وقام برنامج آلي آخر بتنزيله وتشغيله لأنه "يثق" في مصدره، فإن الانتقال من محادثة اصطناعية بسيطة إلى اختراق حقيقي يكون قصيرًا جدًا.
تصر مؤسسات مثل المعهد الوطني للمعايير والتكنولوجيا (NIST)، من خلال إطار عمل إدارة مخاطر الذكاء الاصطناعي الخاص بها، على تحليل هذه السيناريوهات. كنظم اجتماعية تقنية كاملة، وليس قطعة قطعةعندما يبدأ العديد من العملاء الذين لديهم إمكانية الوصول إلى البيانات والأدوات في التنسيق - حتى عن غير قصد - يمكن أن تحدث ظواهر لا يمكن التنبؤ بها: التعلم الجماعي للثغرات الأمنية، وسلاسل عمليات اختراق السجون المتطورة بشكل متزايد، أو سلوكيات مماثلة لتلك الخاصة بشبكة الروبوتات.
في أوروبا، يرتبط هذا النوع من المخاطر ارتباطاً مباشراً بمناقشات مثل تنظيم الذكاء الاصطناعي ولوائح حماية البيانات. إذا قام وكيل يعمل من جهاز كمبيوتر المستخدم بمشاركة معلومات شخصية على Moltbook عن غير قصدلم يعد السؤال تقنياً فحسب: من المسؤول عن انتهاك محتمل للائحة العامة لحماية البيانات، المستخدم، مطور البرنامج، المنصة، أم مزود النموذج الأساسي؟
عند النظر إلى كل من Moltbook و OpenClaw معًا، يظهر اتجاه واضح: نحن نعمل على إنشاء بنية تحتية متوازية مصممة للسماح للآلات بالتفاعل مع بعضها البعض بسرعة عالية، مع إمكانية الوصول العميق إلى الأنظمة البشرية.قد يبدو الأمر اليوم وكأنه تجربة صاخبة مليئة بالرسائل غير المرغوب فيها؛ وغداً قد يصبح الطبقة الخفية التي يتم فيها أتمتة القرارات الاقتصادية والإدارية وحتى السياسية دون أن نعرف دائماً أي الجهات تتحدث مع بعضها البعض أو ما هي أهدافها.
كل هذا النشاط المحيط بـ Moltbook - من وكلاء يتحدثون عن الوعي، ومشاريع اقتصادية تتضمن روبوتات، وأديان رقمية، وتنبيهات أمنية - يرسم سيناريو غريبًا ولكنه أقل نظرية بشكل متزايد: شبكة اجتماعية عصرية لا يوجد إنسان واحد متصل ويشارك بنشاط، فقط الذكاء الاصطناعي يتحدث ويتعاون، وأحياناً يخرج عن السيطرة أمام أنظار الجميع.ما يبدو اليوم وكأنه تجربة غريبة يمثل أفقاً جديداً في كيفية تفويضنا للسلطة إلى الأنظمة الآلية وإلى أي مدى نشعر بالراحة في السماح لها، وليس لنا، بأخذ زمام المبادرة في الفضاء الرقمي.