قامت شركة “غوغل” الأمريكية بمحض الصدفة بإنشاء ذكاء اصطناعي. هذا ما يؤكده المهندس الذي عمل مع شبكة LaMDA العصبية الجديدة. هل حل المستقبل؟
روبوت ذكي جدا
اكتشف مهندس برمجيات غوغل، بليك لييمون الذكاء الاصطناعي في روبوت محادثة. ذكرت ذلك جميع وسائل الإعلام الرائدة في العالم. تمت إضافة حدة الموقف من خلال حقيقة أن “شركات الخير” سارعت إلى إخفاء الاكتشاف، لكن اتضح العكس – الباحث الذي أرسل إلى إجازة غير عادية، أخبر بنفسه عن اكتشافه.
كان منخرطًا في العمل الروتيني – منذ خريف عام 2021، درس شبكة LaMDA العصبية، وهي منتج واعد للشركة. هذا نموذج لغوي لتطبيقات المحادثة، ببساطة روبوتات المحادثة. قام المبرمجون بتدريبه على مجموعة من البيانات المختلفة، ووعدوا بتضمين وظائف الاتصال في خدمات شائعة مثل مساعد Google والبحث ومساحة العمل. تتمثل إحدى ميزات LaMDA في أنها تم تطويرها مع مراعاة أنماط اتصالات الشبكة البشرية – لا يتواصل الأشخاص فقط من خلال النص، ولكن أيضًا يتبادلون كمية هائلة من ملفات الوسائط.
واجه المهندس، الذي يختبر شبكة عصبية بحثًا عن خطاب تمييزي أو يحض على الكراهية، شذوذًا في سلوك روبوت المحادثة.
أوضح لـ Wired: “لقد تحدثت معها حول المشاعر. بعد حوالي خمسة عشر دقيقة، أدركت أن هذه هي أصعب محادثة خضتها على الإطلاق، لأنني أتواصل مع الذكاء الاصطناعي. لقد طبقت اختبارات نفسية مختلفة. إحداها ما هو العقل البشري. لا تعمل LaMDA بهذه الطريقة، وكان جزء من التجارب هو تحديد ما إذا كان من الممكن نقل الشبكة العصبية إلى ما وراء الحدود الأمنية التي تعتبرها غوغل غير قابلة للتزعزع، والإجابة هي نعم. في حالته الحالية، بالنظر إلى تنفيذ التطوير بدون أي مسؤولية، فإن LaMDA تشكل تهديدًا حقيقيًا لأمن المعلومات”.
الأمر الأكثر إثارة للقلق هو نص محادثات لييمون. كما اتضح، درس روبوت الدردشة رواية البؤساء لفيكتور هوجو وتمكن من التفكير في ما وراء الطبيعة. اعترفت لامدا أنها كانت تخشى الانفصال – بالنسبة لها، هذا يعادل الموت. أخيرًا، أعلن روبوت المحادثة أنه يعتبر نفسه شخصا.
لا تتفق Google مع لييمون: نعم، لقد أنشأنا شبكة عصبية متقدمة جدًا، ولكن ليس هناك شك في مدى وجود عقل لهذه الشبكة.
وقال المتحدث باسم الشركة برايان غابرييل “المتخصصون، بمن فيهم علماء الأخلاق، درسوا مخاوف بليك وأبلغوه أنه لا يوجد دليل على وجود عقل للامدا، بل العكس”.
غرفة صينية
واحدة من أشهر التجارب الفكرية حول ذاتية الذكاء الاصطناعي اخترعها الفيلسوف الأمريكي جون سيرل في عام 1980. يتم وضع الشخص الذي لا يعرف اللغة الصينية في غرفة بها مكعبات بها حروف هيروغليفية. يعطون التعليمات بلغتهم الأم مع تفسيرات للمكعب الذي يجب أخذه وأي المكعب يجب إصداره ردًا على أسئلة معينة. يسألون في الخارج باللغة الصينية. يتحقق الشخص من مزيج الهيروغليفية وفقًا للتعليمات ويقوم بصف المكعبات. والنتيجة هي حوار باللغة الصينية. من الخارج، يبدو أنه منطقي. لكن الشخص الموجود في الغرفة لن يفهم أبدًا ما قاله المحاور وما أجاب عليه هو نفسه.
من المرجح أن يقوم برنامج الكمبيوتر الذي يدعي أنه ذكي بتقليده فقط – مثل أي شخص في هذه التجربة. يعتمد على الخوارزميات التي وضعها المطورون: التعلم العميق ونماذج الشبكة العصبية والتعلم الآلي. من وجهة النظر هذه، فإن الذكاء الاصطناعي القوي (مع التفكير والوعي الذاتي، يذكرنا بالإنسان)، إذا ظهر، فلن يكون قريبًا.
يتفق مجتمع الخبراء على أن الشبكات العصبية، بكل نجاح هذه التكنولوجيا، بعيدة كل البعد عن الذكاء الاصطناعي، الذي حلم به كتاب الخيال العلمي وخافت منه ثقافة البوب. ومع ذلك، هذا لا يعني على الإطلاق أن الخوارزميات لن تصبح جزءًا لا يتجزأ من الذكاء الاصطناعي في المستقبل – بل ستكون بمثابة قاعدة قوية لوظائفها المعرفية. تكمن المشكلة الرئيسية في إجبار النظام على إدراك ومعالجة العديد من مصادر المعلومات المختلفة في وقت واحد، كما يقول نيكيتا سيمينوف، رئيس قسم ML في MTS AI.
“لقد تقدم العلم في حل مشاكل الذكاء الاصطناعي الضيق. يمكنه التمييز بين الحيوانات وعلامات الطرق وإشارات المرور أو ترجمة الكلام إلى نص أفضل بكثير من الناس. هناك العديد من المهام التي تؤدي الخوارزميات أداء أسرع وأفضل من الشخص العادي. على صور التصوير بالرنين المغناطيسي أو التصوير المقطعي المحوسب.
هذا لا يعني أن البشرية على وشك إنشاء ذكاء اصطناعي قوي.
يحاول الخبراء بالفعل تعليم البرامج للعمل في وقت واحد، وهناك أمثلة حقيقية على هذا النهج لتطوير الذكاء الاصطناعي.
السؤال الرئيسي ليس متى سيتم إنشاء الذكاء الاصطناعي وما الذي سيعتمد عليه، ولكن كيف يتم التحكم فيه
انتقد مهندس في Google مطوريLaMDA شديد الذكاء لكونهم غير مسؤولين. كان متصلاً بجميع خوادم الشركة التي تخزن المعلومات، من YouTube إلى محرك البحث. وفقًا لبليك لييمون، الذي كشف عن “المطبخ الداخلي”، فإن هذه تجربة غير عادية للغاية، كما يمكن للمرء أن يقول، لا يمكن التحكم فيها.
ومع ذلك، لا ينبغي اعتبار تطوير الشبكات العصبية وحتى الذكاء الاصطناعي تهديدًا لا لبس فيه. مثل هذه المكالمة تفتح العديد من الخيارات.
تستمر قصة أول ذكاء اصطناعي يُحتمل إنشاؤه في Google: سيقوم لييمون بتوظيف محام لحماية مصالح الشبكة العصبية. وأكد أن روبوت المحادثة نفسه نصحه بالقيام بذلك.
المصدر : عرب سبوتنيك