تكنولوجيا

“الأب الروحي للذكاء الاصطناعي” يستقيل من غوغل ويحذر من مستقبل مظلم | علوم وتكنولوجيا | آخر الاكتشافات والدراسات من DW عربية | DW

تقدم  جيفري هينتون “الأب الروحي للذكاء الاصطناعي” داخل شركة غوغل العملاقة باستقالته.

وبهذه الاستقالة، ينضم هينتون إلى مجموعة متزايدة من المنتقدين، الذين يقولون إن شركات التقنية العالمية تتسابق نحو خطر محدق بتطويرها منتجات تعتمد على الذكاء الاصطناعي التوليدي، وهي التكنولوجيا التي تدعم برامج الدردشة الشهيرة مثل Chat GPT.

“قد يفوقوننا ذكاء في المستقبل”

وفي تصريحات نقلتها عنه هيئة الإذاعة البريطانية قال هينتون إن بعض مخاطر برامج الدردشة الآلية باتت “مخيفة للغاية”، وأضاف: “في الوقت الحالي، هم ليسوا أكثر ذكاء منا، لكنني أعتقد أنهم قد يفوقوننا ذكاء قريبًا”.

والمعروف أن جيفري هينتون هو أحد رواد الذكاء الاصطناعي، ففي عام 2012، فقد ابتكر هينتون واثنان من طلابه في جامعة تورنتو تقنية أصبحت فيما بعد الأساس الفكري لمنظومة الذكاء الاصطناعي، وهي الأنظمة التي تعتقد أكبر شركات صناعة التكنولوجيا أنها مفتاح المستقبل.

وبحسب ما نشرت صحيفة نيويورك تايمز، قال الدكتور هينتون إنه استقال من وظيفته في غوغل (Google)، حيث عمل لأكثر من عقد وأصبح أحد أكثر الأصوات احترامًا في هذا المجال، وذلك حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي، مضيفاً أنه يحمل بداخله ندماً شديداً على المشاركة في أبحاث تطوير الذكاء الاصطناعي، وذلك خلال مقابلة أجرتها معه الصحيفة.

ويعتقد قادة صناعة التقنية أن الذكاء الاصطناعي المتطور – والذي بدأت عدة شركات في دمجه بمتصفحات الويب منذ أوائل التسعينيات – يمكن أن يؤدي إلى تقدم شديد للغاية في مجالات تتراوح من أبحاث الأدوية إلى التعليم. لكن على جانب آخر، يرى العديد من المطلعين على الصناعة سريعة التطور أن هناك مخاوف متعاظمة من إطلاق “شيء خطير” قد يصعب السيطرة عليه لاحقاً.

“خطر على البشرية نفسها”

ويخشى خبراء التقنية من أن نموذج الذكاء الاصطناعي التوليدي “GPT” يمكن أن يكون بالفعل مصدراً للتضليل ونشر المعلومات غير الصحيحة كما يمكن أن يشكل خطرًا على الوظائف، ويذهب أكثر القلقين في مجال التكنولوجيا إلى أنه قد يشكل خطرًا على البشرية نفسها.

وقال هينتون لشبكة “بي بي سي” إن وجود مثل هذه التقنية الآخذة في التطور بسرعة في أيدي الجهات السيئة “سيكون نوعاً من أسوأ السيناريوهات، نوع من السيناريوهات الكابوسية” .. “يمكنك أن تتخيل ما سيكون عليه الأمر، على سبيل المثال، إن قام بعض الفاعلين السيئين مثل [الرئيس الروسي فلاديمير] بوتين باتخاذ قرار بمنح الروبوتات القدرة على إنشاء أهداف فرعية خاصة بها”.

وأعرب عن خوفه من تمكن الذكاء الاصطناعي من إنشاء برمجيات كومبيوتر يمكنها أن تقوم من خلالها بتشغيل برامج أخرى بنفسها ليأتي يوم تصبح فيه تلك الروبوتات قاتلة وتمتلك سلاحاً يمكنها تشغيله دون إذن البشر.

وقال الدكتور هينتون: “من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة ذات الأغراض الخبيثة من استخدام تلك التقنية في أشياء سيئة”، وتابع: “في الوقت الحالي، ما نراه هو أن أشياء مثل GPT-4 تتفوق على الشخص في مقدار المعرفة العامة التي يمتلكها وربما تتفوق عليه كثيرًا. صحيح أن الناتج من حيث التفكير ليس جيدًا، ولكنه بدأ بالفعل في التفكير ولو بشكل بسيط”، “وبالنظر إلى معدل تطور هذه البرامج، نتوقع أن تتحسن الأمور بسرعة كبيرة.. لذلك علينا أن نقلق بشأن ذلك.”

وبعد أن أصدرت شركة OpenAI الناشئة في سان فرانسيسكو إصداراً جديداً من ChatGPT في مارس/آذار، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين خطابًا مفتوحًا يدعون فيه إلى وقف تطوير أنظمة جديدة من هذا الذكاء الاصطناعي لمدة ستة أشهر حيث “تشكل التقنيات مخاطر جسيمة على المجتمع والإنسانية”.

 

وبعد عدة أيام ، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي – وهي جمعية أكاديمية عمرها 40 عامًا – خطابًا خاصًا حذروا فيه من مخاطر الذكاء الاصطناعي. ضمت تلك المجموعة إريك هورفيتز، كبير المسؤولين العلميين في مايكروسوفت Microsoft، التي نشرت تقنية OpenAI عبر مجموعة واسعة من منتجاتها، بما في ذلك محرك بحث Bing.

ولم يوقع الدكتور هينتون، الذي يُطلق عليه “الأب الروحي للذكاء الاصطناعي”، أيًا من هاتين الرسالتين وقال إنه لا يريد أن ينتقد علنًا سياسات غوغل أو الشركات الأخرى حتى يترك وظيفته، لكنه أخطر الشركة الشهر الماضي أنه سيتقدم باستقالته. ويوم الخميس، تحدث عبر الهاتف مع ساندر بيتشاي، الرئيس التنفيذي لشركة ألفابيت، الشركة الأم التي تضم تحتها شركة غوغل، ورفض أن يفصح عن تفاصيل محادثته مع بيتشاي.

ورداً على خبر الاستقالة المدوي، قال جيف دين كبير العلماء في غوغل في بيان: “نحن لا نزال ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار لفهم المخاطر الناشئة مع الابتكار بجرأة أيضاً”.

من هو جيفري هينتون؟

الدكتور هينتون هو باحث بريطاني يبلغ من العمر 75 عامًا، وهو أكاديمي بارز عمل طوال حياته مدفوعاً بقناعاته الشخصية حول أهمية تطوير واستخدام الذكاء الاصطناعي. في عام 1972، وكطالب دراسات عليا في جامعة إدنبرة، تبنى هينتون فكرة تسمى الشبكة العصبية (neural network) وهي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت، كان عدد قليل من الباحثين يؤمن بالفكرة، لكنه أصبح لاحقاً عمل حياته.

والشبكات العصبية هي أنظمة تشبه الدماغ البشري في الطريقة التي تتعلم بها المعلومات وتعالجها، وهي اتصال عدد غير محدود من أجهزة الكومبيوتر ذات القدرات العالية بشكل يشبه اتصال الخلايا العصبية في الدماغ البشري، وبشكل يُمكّن أنظمة الذكاء الاصطناعي من التعلم من التجربة كما يفعل أي شخص وهو ما يطلق عليه اسم التعلم العميق (deep learning).

وفي الثمانينيات، كان الدكتور هينتون أستاذًا لعلوم الكمبيوتر في جامعة كارنيغي ميلون، لكنه ترك الجامعة إلى كندا وقال إنه كان مترددًا في الحصول على تمويل من البنتاغون، ففي ذلك الوقت، كانت معظم تطبيقات الذكاء الاصطناعي تحصل على تمويل من قبل وزارة الدفاع الأمريكية. ويعارض الدكتور هينتون بشدة استخدام الذكاء الاصطناعي في ساحة المعركة أو ما أصبح متعارف عليه اليوم باسم “الروبوتات الجنود robot soldiers”.

في عام 2012، أنشأ الدكتور هينتون واثنان من طلابه في تورنتو، هما إيليا سوتسكيفر وأليكس كريشيفسكي، شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها تحديد شكل واسم بعض الأشياء الشائعة، مثل الزهور والكلاب والسيارات. لكن شركة غوغل أنفقت نحو 44 مليون دولار لشراء شركة أسسها الدكتور هينتون وطلابه قائمة على هذه الفكرة. غادر سوتسكيفر الشركة ليصبح فيما بعد كبير العلماء في شركة OpenAI.

أدى العمل الذي قام به هينتون وطلابه فيما بعد إلى إنشاء تقنيات قوية بشكل متزايد، بما في ذلك روبوتات الدردشة الجديدة مثل ChatGPT و Google Bard.

وفي عام 2018، حصل الدكتور هينتون واثنان آخران من المتعاونين القدامى معه على جائزة تورينغ ، التي غالبًا ما تسمى “جائزة نوبل للحوسبة”، لعملهم على الشبكات العصبية.

عماد حسن

document.addEventListener(“DOMContentLoaded”, function (event) {
if (DWDE.dsgvo.isStoringCookiesOkay()) {
facebookTracking();
}
});
function facebookTracking() {
!function (f, b, e, v, n, t, s) {
if (f.fbq) return;
n = f.fbq = function () {
n.callMethod ?
n.callMethod.apply(n, arguments) : n.queue.push(arguments)
};
if (!f._fbq) f._fbq = n;
n.push = n;
n.loaded = !0;
n.version = ‘2.0’;
n.queue = [];
t = b.createElement(e);
t.async = !0;
t.src = v;
s = b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t, s)
}(window, document, ‘script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘157204581336210’);
fbq(‘track’, ‘ViewContent’);
}


مصدر الخبر

للمزيد Facebook

Related Articles

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button