1. رفتن به محتوا
  2. رفتن به مطالب اصلی
  3. رفتن به دیگر صفحات دویچه وله
علم و دانشایالات متحده امریکا

«پدرخوانده» هوش مصنوعی از خطرات این فن‌آوری هشدار داد

۱۴۰۲ اردیبهشت ۱۳, چهارشنبه

جفری هینتون، در مصاحبه با نیویارک تایمز گفته است که دانشمندان باید قبل از این که به انکشاف هوش مصنوعی ادامه دهند، از کنترول آن اطمینان حاصل کنند. او از توانایی این فن‌آوری برای ایجاد محتوای جعلی متقاعد کننده هشدار داد.

https://p.dw.com/p/4Qqih
Geoffrey E. Hinton | britischer Informatiker
جفری هینتون، دانشمند پیشتاز در زمینه هوش مصنوعیعکس: Masahiro Sugimoto/AP Images/picture alliance

جفری هینتون، از دانشمندان پیشتاز در زمینه هوش مصنوعی که اغلب از او به حیث «پدرخوانده» این فن‌آوری یاد می‌شود، گوگل را ترک کرد تا بتواند بدون هیچگونه تعهدی نسبت به کارفرمایش، مردم را از آن چه که او انبوه خطرات این فن‌آوری عنوان می‌کند، آگاه کند.

هینتون روز دوشنبه در توییتر گفت که او این گوگول را ترک کرده تا «بتواند راجع به خطرات هوش مصنوعی صحبت کند، بدون این که تاثیرات آن را بر گوگل در نظر بگیرد.»

او گفت این ادعا که گوگل را ترک کرده تا بتواند آزادانه از کارفرمای پیشینش انتقاد کند، درست نیست. هینتون عملکرد گوگل را در این زمینه «بسیار مسئولانه» خواند.

بیشتر بخوانید: اینترنت ۳۰ ساله شد

هینتون در حالی از مقامش استعفا می‌دهد که در پی پیشرفت‌های هوش مصنوعی در سال گذشته و خطراتی که همراه با آن برای بشریت ایجاد شده، هراس و نگرانی در میان دانشمندان افزایش یافته است.

چندین دانشمند برجسته در ماه مارچ در یک نامه سرگشاده از تولیدکنندگان هوش مصنوعی خواستند که کارشان را به مدت شش ماه متوقف کنند. در حالی که غول‌های تکنولوژی مانند گوگل و مایکروسافت برای تولید برنامه‌های هوش مصنوعی که قادر به یادگیری مستقلانه هستند، رقابت می‌کنند، این دانشمندان از ریسک‌های بالقوه آن برای جامعه و بشریت هشدار دادند.

این هشدار در حالی نشر می‌شود که چندی قبل چت‌بات «جی‌پی‌تی– ۴» عرضه شد که تازه‌ترین نسخه چت‌بات هوش مصنوعی «جی‌پی‌تی» است و با حمایت مایکروسافت توسط شرکت امریکایی «OpenAI» تولید شده است.

بیشتر بخوانید: شک و شبهه های اخلاقی در مورد هوش مصنوعی

هینتون چه نگرانی‌هایی در زمینه هوش مصنوعی دارد؟

هینتون ۷۵ ساله در مصاحبه‌ای با نیویارک تایمز که روز دوشنبه انجام شد، گفته است که پیشبرد فن‌آوری هوش مصنوعی «خطرات اساسی برای جامعه و بشریت ایجاد می‌کند». او در این مصاحبه گفته است: «ببینید که پنج سال پیش اوضاع چگونه بود و حالا کار به کجا کشیده است. ... این ترسناک است.»

هینتون به خصوص از توانایی‌های هوش مصنوعی برای ایجاد انبوه محتویات غیرواقعی مانند تصاویر هشدار داده است. او گفته است این فن‌آوری می تواند تصاویر و مضمون‌های غیرواقعی ایجاد کند که بسیار واقعی به نظر می‌آیند و مردم دیگر نمی‌توانند «تفاوت بین محتویات جعلی و واقعی را متوجه شوند.»

DW SHIFT | ChatGPT
چت جی پی تی، از زمان ایجاد در سال گذشته به نگرانی ها در مورد تهدیدهای بالقوه از جانب هوش مصنوعی دامن زده است. عکس: Mojahid Mottakin/Unsplash

او در ادامه گفته است که جلوگیری از استفاده از هوش مصنوعی توسط افرادی که نیت بدی دارند، کار بسیار دشواری است.

هینتون: سرعت تکامل هوش مصنوعی شوک‌آور است

این متخصص پیشتاز در ادامه گفته است که در آغاز تعداد اندکی به این باور بودند که این فن‌آوری می‌تواند از مردم هوشمندتر شود: «بیشتر مردم فکر می‌کردند که تا آن زمان خیلی مانده است و من هم همینطور گمان می‌کردم که تا آن وقت ۳۰ تا ۵۰ سال دیگر و یا حتی بیشتر مانده است. روشن است که حالا دیگر اینگونه فکر نمی‌کنم.»

به اینستاگرام دویچه وله دری بپیوندید

هینتون در چند مورد تحقیقات پیشگامانه راجع به شبکه‌های عصبی مصنوعی نقش داشت که به عنوان پایه و اساس سیستم‌های کنونی هوش مصنوعی به شمار می‌آیند، به شمول چت‌بات جنجال برانگیز جی‌پی‌تی.

در ساخت شبکه‌های عصبی مصنوعی از سیستم‌های بیولوژیکی عصبی الهام گرفته شده و سعی می‌کنند از عملکرد سیستم‌های بیولوژیکی برای تسهیل یادگیری ماشین تقلید کنند، چه با پروسس کردن اطلاعات و یا یادگیری از تجربیات.

یوتیوب دویچه وله دری را ببینید

از هینتون نقل قول شده که در این مصاحبه گفته است: «شاید آن چه که در این سیستم‌ها جریان دارد خیلی بهتر باشد از آن چه که در مغز رخ می‌دهد». او گفته که دانشمندان نخست باید بدانند که چگونه می‌توانند هوش مصنوعی را کنترول کنند و تا آن زمان نباید آن را بیشتر انکشاف دهند.

جف دین، دانشمند پیشتاز در زمینه هوش مصنوعی که برای گوگل کار می‌کند در نامه‌ای که به دست رسانه‌های امریکایی رسیده، به تعهد این شرکت بر «عملکرد مسئولانه در قبال هوش مصنوعی» تاکید کرده و از استعفای هینتون سپاسگزاری کرد.

Me, af (AFP, Reuters)