«حكاية إلهام تتخطى الحدود وتقلب الموازين.» ذكاء اصطناعي عربي، وليد فكر لاجئين، يتحدى هيمنة عمالقة وادي السيليكون

«حكاية إلهام تتخطى الحدود وتقلب الموازين.» ذكاء اصطناعي عربي، وليد فكر لاجئين، يتحدى هيمنة عمالقة وادي السيليكون

في خضم السباق العالمي المحموم لتطوير نماذج الذكاء الاصطناعي، تتصاعد التساؤلات بشأن ملكية هذه التكنولوجيا، ولمن تعمل، وما الثمن الذي يدفعه المستخدمون مقابل “الذكاء” والسرعة الفائقة. ضمن هذا السياق المعقد، برزت منصة “ثورة” (Thaura)، كمبادرة جريئة لتقديم نموذج بديل، يضع الأخلاق وخصوصية المستخدم في صميم تصميمه، بدلاً من اعتبارها مجرد تفاصيل جانبية.

اقرأ أيضاً

  • “ذكي بشكل مخيف”.. وصفة مو جودت لأنسنة الذكاء الاصطناعي.
  • الصحافة ستكون ملاذ الهاربين من ضجيج خوارزميات وسائل التواصل.

أسس هذه المنصة شقيقان من أصول سورية، هما هاني وسعيد، اللذان يتمتعان بخبرة سابقة في قطاع التكنولوجيا بأوروبا، ويُقدّمان “ثورة” كمنصة ذكاء اصطناعي “للناس، لا للشركات ولا للحكومات”، وهذا يمثل موقفاً صريحاً ينتقد سياسات شركات التكنولوجيا الكبرى، ليس فقط من زاوية تقنية، بل من منظور أخلاقي وسياسي أوسع نطاقاً.

في هذه المقابلة، يتحدث مؤسسا “ثورة” إلى الجزيرة نت عن مسارهما وخلفياتهما، ودوافعهما لإطلاق المنصة، وكذلك عن حدود “الذكاء” عندما يتعارض مع الخصوصية، وموقفهما من التمويل والسلطة، ودور الذكاء الاصطناعي في تشكيل مستقبل البشرية.

قبل “ثورة”، ما مساركما المهني؟ وكيف شكّل ذلك نظرتكما للتكنولوجيا؟

قبل تأسيس “ثورة”، عملنا في شركة تقنية ألمانية تتعامل مع كبرى شركات الأدوية، ما أتاح لنا فرصة العمل على قواعد بيانات صحية ضخمة وحساسة، وهناك أدركنا أن التكنولوجيا ليست مجرد شيفرات برمجية، بل ترتبط ارتباطاً مباشراً بحياة الناس وثقتهم.

لقد رسّخت هذه التجربة لدينا قناعة بأن خصوصية البيانات وموثوقيتها ليستا مجرد خيارات إضافية، بل شرطان أساسيان لا يمكن التنازل عنهما بأي حال من الأحوال.

لم تتبعا المسار الأكاديمي التقليدي في علوم الحاسوب، هل أثّر ذلك في بناء المنصة؟

هاني: بصراحة، لا أعتقد أن خلفيتنا غير التقليدية أثّرت في “ثورة” سواء بشكل إيجابي أو سلبي، ففي عملنا السابق، قدنا ما يقارب 7 مشاريع، وكان يعمل تحت إدارتنا عدد كبير من الأشخاص، ومن خلال تجربتي الشخصية، أستطيع القول إن كوننا مطورين عصاميين لم يشكّل عائقاً يوماً ما.

لقد كنت دائماً شغوفاً بالبرمجة، وأحببت التعلم المستمر وتطوير مهاراتي، لإدراكي أن العالم يتجه نحو ثورة تكنولوجية، لذلك، لم أشعر يوماً بأنني أفتقر لشيء لمجرد أنني لم أتلق تعليماً أكاديمياً تقليدياً في علوم الحاسوب.

الحقيقة أن معظم العاملين في هذا المجال يعتمدون على التعلّم الذاتي في غالبية ما يعرفونه، فربما 90% مما نفعله هو تعلّم ذاتي، والشيء الوحيد الذي ربما افتقدناه في البداية هو الأساسيات النظرية الرسمية، لكن بمجرد تعلم هذه الأساسيات، تجد نفسك على المسار ذاته مع الجميع.

سعيد: الأهم من ذلك أننا، من خلال تعليم أنفسنا البرمجة، اكتسبنا مهارة عامة أساسية تتمثل في تعلّم أشياء جديدة باستمرار، وعندما قسّمنا الأدوار في “ثورة”، توليتُ أنا الجانب التقني، بينما تولى هاني كل ما يتعلق بالتسويق والإدارة والاتصال، وكان عليه أن يتكيّف بسرعة ويتعلم مهارات جديدة، لكن ذلك لم يكن جديداً عليه، لأنه كان قد أتقن أصلاً مهارة التعلّم بحد ذاتها.

لقد أصبح التعلّم مهارة قائمة بذاتها، وهذه القدرة على التكيّف المستمر واكتساب المعرفة كانت عنصراً أساسياً في نجاح “ثورة” ومرونتها، ما مكننا من النمو والتطور باستمرار.

كيف أثّرت نشأتكما في سوريا ثم العمل في أوروبا على حساسيتكما لقضايا السلطة والمراقبة؟

هاني: لقد منحتنا خلفيتنا السورية فهماً مباشراً لكيفية قمع الأنظمة للناس، وكنا دائماً على دراية تامة بما يحدث في سوريا، وكيف تشكّل القوى الكبرى الشرق الأوسط والعالم.

وعندما جئنا إلى ألمانيا، لم نشعر بالامتنان فحسب، بل بالمسؤولية أيضاً، فقد أُتيحت لنا فرص لبناء مستقبل لم يكن متاحاً لأبناء شعبنا في الوطن بسبب عيشهم تحت نظام قمعي، وهذا الشعور بالمسؤولية تجاه ردّ الجميل ظلّ يرافقنا باستمرار.

سعيد: مع تعمقنا في مجال التكنولوجيا وفهمنا لبنية البيانات وديناميكيات السلطة في المشهد التقني، ازداد هذا الوعي لدينا، وأدركنا أن التكنولوجيا اليوم تعد من أقوى أدوات التأثير على البشر في عالم أصبح فيه الجميع متصلين رقمياً.

والآن، بما أننا نمتلك منصة يمكننا من خلالها تحديد كيفية استخدام هذه القوة، نحن مصممون على عدم تكرار أخطاء الأنظمة القمعية التي نعرفها، ومهمتنا هي تقديم بديل لا يستغل الناس، بل يعمل فعلاً لصالحهم.

ما تعلمناه في سوريا عن اختلالات القوة، إلى جانب الفرصة التي منحتنا إياها أوروبا لبناء شيء مختلف، هو ما يحدد كل ما نقوم به في “ثورة” ويشكل جوهر رؤيتنا.

تصفان “ثورة” بأنها “بديل أخلاقي”، ما الذي جعلكما تعتقدان أن الأنظمة الحالية تجاوزت خطاً أخلاقياً؟

لقد لاحظنا أن شركات التكنولوجيا الكبرى تضع الأرباح باستمرار فوق مصالح البشر، ما يؤدي إلى تبني سياسات ضارة تتجاهل القيم الأخلاقية.

فعلى سبيل المثال، يعتمد “شات جي بي تي” على بنية تحتية مقدمة من شركات مثل “إنفيديا” و”مايكروسوفت”، وهي شركات تُعد من الداعمين الرئيسيين لإسرائيل.

كما أن “مايكروسوفت”، التي تمتلك حصة كبيرة في “أوبن إيه آي”، توفر البنية الحاسوبية التي تشغّل العمليات العسكرية الإسرائيلية، ما يعكس تورطاً مباشراً في دعم الصراع.

وحتى عندما تقدم شركات مثل “كلود” (Claude) نفسها كبديل “آمن”، يتضح تورطها من خلال شراكات مع “بلانتير” (Palantir)، وهي شركة تطور أنظمة قتل تعتمد على الذكاء الاصطناعي وتستخدمها الحكومة الإسرائيلية ضد الفلسطينيين، ما يثير مخاوف جدية حول مدى أخلاقية هذه الشراكات.

هذه ليست مجرد قضايا تقنية فحسب، بل هي تجاوزات أخلاقية واضحة ناتجة عن مشاركة مباشرة في أعمال الإبادة والقمع، ما يدفعنا للتساؤل عن المسؤولية الأخلاقية لهذه الشركات.

يعتمد الذكاء الاصطناعي اعتماداً هائلاً على البيانات، ما يعني أن الناس يقدّمون دون علمهم معلومات قيّمة لهذه الجهات، وعندما رأينا أفراداً من عائلتنا يستخدمون “شات جي بي تي” دون إدراك الضرر الذي قد يلحقونه بأنفسهم وبمجتمعهم، أدركنا أنه لا بد من التحرك وتقديم بديل.

بدأنا بنسخة بسيطة مخصصة للعائلة، ومع تزايد طلباتهم -مثل الوضع الصوتي ورفع الصور- تشكّلت “ثورة” تدريجياً لتصبح المنصة التي نراها اليوم، استجابةً لهذه الاحتياجات والقناعات الأخلاقية.

هل “ثورة” رد على ضعف تقني أم على خيبة أخلاقية؟

سعيد: إن “ثورة” نابعة بشكل أكبر من خيبة أمل أخلاقية عميقة تجاه الصناعة ككل، فعندما ظهرت منصات مثل “شات جي بي تي” و”كلود” و”بيربلكستي”، كنا من المستخدمين المكثفين لها، ولم تحاول “ثورة” إعادة اختراع العجلة، فنحن نحب فعلاً المنتجات التي طورتها هذه الشركات، لكننا نرفض بشدة سياساتها ومواقفها الأخلاقية، وحقيقة أنها لا تهتم إلا بالأرباح دون اكتراث حقيقي بالإنسانية.

إن قدرات هذه الأنظمة التقنية مبهرة بلا شك، لكن الأساس الأخلاقي الذي بُنيت عليه معطوب من جذوره، لقد أنشأت هذه الشركات أدوات قوية كان يمكن أن تساعد البشر فعلاً، لكنها اختارت إعطاء الأولوية لقيمة المساهمين على حساب رفاه الإنسان، وهذا الفشل الأخلاقي الجوهري هو ما دفعنا لبناء “ثورة” وتقديم بديل.

لذا، هي خيبة أخلاقية بالدرجة الأولى، فنحن نُقر بأن هذه الأنظمة متقدمة تقنياً وكنا من مستخدميها، لكن المشكلة ليست في القدرات التقنية بحد ذاتها، بل في الأساس الذي تُبنى عليه، وحين تصبح قيمة المساهمين أهم من رفاه الإنسان، فإن الخلل يكون بنيوياً ولا يمكن إصلاحه بمجرد إضافة ميزات جديدة.

ما القرارات الأخلاقية التي كلّفتكما نمواً أو تمويلاً؟

هاني: بصراحة، تسير “ثورة” في مسار ممتاز، لكن القرار الأخلاقي الأبرز الذي كلّفنا نمواً محتملاً هو رفض التمويل، فقد تلقينا عدة عروض استثمارية مغرية، لكننا رفضناها جميعاً لأننا لا نريد لأي جهة أن تؤثر في طريقة بناء “ثورة” أو توجيه مسارها.

ورغم يقيننا بوجود مستثمرين حسني النية، فإن المخاطرة لا تستحق العواقب المحتملة، فـ”ثورة” صُممت لتكون للناس، وليس من المنطقي إدخال مستثمرين أو شركات رأس مال مغامر قد يركزون في النهاية على الأرباح بدلاً من رسالتنا الأساسية.

عدا ذلك، تسير “ثورة” بشكل ممتاز ومستقر، ولدينا مجتمع رائع ومتنامٍ يوماً بعد يوم، ونحن واثقون تماماً من قدرتها على التوسع بلا حدود ومنافسة اللاعبين الكبار في السوق دون التفريط بأساسها الأخلاقي الذي تقوم عليه.

انتقدتما شركات التكنولوجيا الكبرى علناً، هل المشكلة الأساسية هي الانحياز السياسي، أم احتكار البيانات، أم تركز السلطة بحد ذاته؟

سعيد: المشكلة تكمن في كل ما سبق ذكره، لأنها جميعاً أعراض للمشكلة الجوهرية نفسها، وهي أن شركات التكنولوجيا الكبرى لا تهتم بالإنسانية في المقام الأول، وهذا الغياب للاهتمام يؤدي بطبيعة الحال إلى الانحياز السياسي، واحتكار البيانات، وتركيز السلطة.

تمتلك هذه الشركات موقعاً فريداً وفرصة هائلة لإحداث فرق إيجابي ومؤثر للبشرية جمعاء، لكنها لا تستغلها بالشكل الأمثل، فكل ما يهمها هو النمو المطرد والأرباح المتزايدة وأجنداتها السياسية الخاصة، وهذه ليست مشكلات منفصلة، بل جوانب مختلفة لمنظومة متكاملة تعطي الأولوية المطلقة للمصالح المؤسسية على حساب رفاه الإنسان وكرامته.

من يحدد “الأخلاقي” داخل “ثورة”؟

هاني: صُممت “ثورة” لتضع الإنسان فوق الربح، وأن تبني شيئاً للصالح العام، لا للعالم المؤسسي الربحي، ولقد طوّرنا إطارنا الأخلاقي من خلال ممارساتنا وتعاليم الإسلام، التي تدعونا إلى البناء على أسس الرحمة والعدل واحترام جميع البشر، بغض النظر عن خلفياتهم أو ظروفهم.

هذه المبادئ الأساسية توجه مقاربتنا للتكنولوجيا والأعمال، وتضمن أن يكون كل قرار نتخذه إضافة إيجابية وبناءة للمجتمع، لا مجرد استخراج للقيمة منه وتحقيق مكاسب مادية بحتة.

من يراجع هذه التعريفات الأخلاقية أو يدقق فيها؟ وكيف تمنعون تحوّلها إلى أخلاق شخصية للمؤسسين مشفّرة داخل البرمجيات؟

سعيد: مجتمعنا المتنامي هو الجهة الرئيسية التي تتولى بالكامل مراجعة وتحدي إطارنا الأخلاقي، ونحن نشجع الجميع على المساهمة الفعالة في تطويره وتحسينه باستمرار، لضمان الشفافية والشمولية.

نحن لا نعتبر أنفسنا علماء أخلاق أو مرجعيات نهائية في هذا المجال، بل حدّدنا ببساطة مشكلات جوهرية لا تتعامل معها شركات التكنولوجيا الكبرى بشكل مناسب أو عادل، ونرغب بشدة في تغيير هذا الواقع وتقديم نموذج أفضل.

ما نوع البيانات التي ترفضون جمعها مهما كانت الفائدة التقنية؟

هاني: نؤمن بمبدأ راسخ أن بيانات المستخدم ملك له وحده، ولذلك، نحن لا نستخدم هذه البيانات ولا نحللها لأغراض التدريب أو التحسين أو تحقيق الربح على الإطلاق، في حين تجمع شركات أخرى كميات هائلة من البيانات لجعل نماذجها “أذكى”، نحن نرفض هذا النهج تماماً لأنه ينتهك ثقة المستخدم واستقلاليته وحقوقه الأساسية.

وفي هذا الإطار، من المهم جداً التمييز بين “الجمع” و”التخزين”، فنحن لا نجمع أي بيانات مستخدم بمعنى امتلاكها أو تحليلها، فأي شيء يُمرر إلى “ثورة” لا يصبح ملكاً لنا، بل نحن نخزّن البيانات لصالح المستخدم نفسه، وليس لصالحنا أو لأي جهة أخرى.

الأشياء الوحيدة التي تخزّنها “ثورة” هي الضروريات الأساسية مثل المحادثات، وأسماء المستخدمين، والبريد الإلكتروني، وهي أمور يتوقعها المستخدم ويرغب في الاحتفاظ بها للاستفادة منها، مثل سجل المحادثات وميزات الذاكرة التي تعزز تجربته.

نحسّن النموذج بشكل مستمر من خلال مدخلات المجتمع، حيث نحصل باستمرار على تغذية راجعة مباشرة من المستخدمين، وهذا النهج يحترم الخصوصية بشكل مطلق، وفي الوقت نفسه يسمح لنا بالتطور والتحسين بناءً على ما يريده الناس فعلاً ويثقون به.

إذا كان جمع مزيد من البيانات سيجعل “ثورة” أذكى بوضوح، فهل يمكن للذكاء أن يبرر المراقبة؟

سعيد: إطلاقاً، قد يكون من المغري جداً أن يصبح النموذج أذكى بجمع المزيد من البيانات، لكن السؤال هنا هو: بأي ثمن؟ لا يملك أي إنسان الحق في تجاوز قرارات شخص آخر متعلقة بخصوصيته وحقوقه، فإذا قال المستخدم إنه لا يريد استخدام بياناته لأغراض معينة أو يرغب في الحفاظ على خصوصيته، فلا يجوز لأحد أن يتجاهل ذلك بحجة “نحن نريد تغيير العالم” أو تحقيق تقدم تقني.

الخصوصية بالنسبة لنا غير قابلة للتفاوض أو المساومة، وإن التزام “ثورة” القاطع باستقلالية المستخدم يعني أننا لن نضحّي بالخصوصية مقابل الأداء أو الذكاء التقني، مهما كانت الإغراءات والفوائد التقنية المحتملة.

إذا اقتربت منكما حكومة بشروط صارمة وضمانات للاستخدام الأخلاقي، ما الذي سيجعلكما ترفضان فوراً؟

هاني: “ثورة” هي للناس، ولا ينبغي لأي حكومة أن يكون لها أي نفوذ أو سيطرة عليها، وهدفنا الأساسي أن تكون “ثورة” منصة غير مركزية، ولا محلية، وأن تكون مفتوحة المصدر، ومتاحة للجميع دون قيود، وغير خاضعة لأي جهة مركزية.

رؤيتنا النهائية هي أن لا يضطر الناس حتى إلى الثقة بـ”ثورة” نفسها ككيان مركزي، بل أن يمتلكوا أنظمة محلية أو غير مركزية خاصة بهم، تكون مستقلة تماماً عن أي تحكم مركزي، ولو تقدمت حكومة بعرض شراكة، فسنجيبها بالإجابة نفسها التي نوجهها للمستثمرين: لا نريد لأي جهة خارجية أن تؤثر في رسالة “ثورة” أو تملي عليها توجهاتها.

لذلك، سنرفض أي شراكة قد تمس استقلاليتنا الجوهرية أو التزامنا الراسخ بوضع الإنسان أولاً وقبل كل اعتبار آخر، فهذا هو أساس وجودنا.

في ظل نشأتكما في سوريا وبناء نظام ذكاء اصطناعي في واقع جيوسياسي معقد، هل ترون ثورة منتجاً أم موقفاً؟

سعيد: لقد بنينا منصة “ثورة” بعقلية ثورية واضحة، فشعارنا، وهو جمل يقوده مبرمج، يقلب الصور النمطية السائدة التي تختزل العرب في الصحراء والجمال بدلاً من واجهات البرمجة والخوارزميات المتقدمة، ولقد اخترنا هذا الرمز كراية تعكس قيمنا وتعلن بوضوح هويتنا ورسالتنا.

لكن “ثورة” هي أيضاً منتج حقيقي وعملي، لأن إحداث تأثير حقيقي وملموس يتطلب أكثر من مجرد موقف أو بيان، فهناك بدائل كثيرة جيدة ومتاحة، لكنها غالباً ليست سهلة الاستخدام بما يكفي للوصول إلى الجمهور العام، لذلك ركزنا كثيراً على تحسين تجربة المستخدم، لأننا نريد أن يحدث الانتقال من التكنولوجيا الكبرى المهيمنة إلى التكنولوجيا الأخلاقية على أرض الواقع.

لذا، فـ”ثورة” هي الاثنان معاً: بيان مبادئ ثوري يعبر عن رؤيتنا، وحل عملي ومفيد يعمل فعلاً لصالح الناس ويُلبي احتياجاتهم.

إذا فشلت “ثورة” تجارياً ونجحت في تغيير طريقة تفكير الناس في أخلاقيات الذكاء الاصطناعي، هل يظل ذلك مهماً بالنسبة لكما؟

هاني: لا نهتم بـ”ثورة” كمنتج تجاري بقدر ما قد يظنه بعضهم، فقد بدأنا العمل عليها لأن هناك حاجة فعلية وضرورية لبديل مختلف وأكثر إنسانية، وكان هدفنا الأساسي هو بناء مجتمع واعٍ، ونشر الوعي حول قضايا أخلاقيات الذكاء الاصطناعي، وتحفيز الناس على استخدام وبناء تكنولوجيا أخلاقية ومستدامة.

ما يهم حقاً وبشكل جوهري هو الجانب المجتمعي والفكري، فنحن نريد لأصحاب التفكير الأخلاقي أن يتواصلوا ويتعاونوا، وأن يبنوا عالماً أفضل ومستقبلاً أكثر عدلاً لنا ولأطفالنا من بعدنا.

إذا فشلت “ثورة” تجارياً ونجحت في تغيير وعي الناس وبناء هذا المجتمع الواعي والفاعل، فسيكون ذلك نجاحاً كبيراً يفوق أي مكسب مادي، فالجانب التجاري ثانوي تماماً مقارنة بالمهمة الحقيقية المتمثلة في تمكين الناس من بناء تكنولوجيا تخدم الإنسانية وتصونها، بدلاً من استغلالها والتحكم بها.

الذكاء الاصطناعي بين السوق والضمير

تقدّم “ثورة” نفسها ليس فقط كمنصة تقنية مبتكرة، بل كموقف فكري وأخلاقي راسخ في مواجهة نموذج سائد يرى في البيانات مجرد سلعة قابلة للمتاجرة، وفي المستخدم مورداً للاستغلال.

سواء نجحت “ثورة” تجارياً أم لا، فإن طرح هذه الأسئلة الجوهرية عن الخصوصية، والسلطة، وحدود الذكاء الاصطناعي يعكس تحوّلاً أوسع وأكثر عمقاً في النقاش العالمي الدائر حول مستقبل التكنولوجيا، وفي زمن تتسارع فيه الخوارزميات وتتعقد، يتحول التساؤل عن قدرة البشر على تطويع الذكاء الاصطناعي إلى تساؤل حاسم: لصالح من يفعل ذلك؟ وبأي ثمن حقيقي يتم هذا التطور؟.