هشدار مایکروسافت درباره خطر آگاهی در هوش مصنوعی


مصطفی سلیمان، مدیر بخش هوش مصنوعی مایکروسافت، گفته تحقیق دربارهی آگاهی هوش مصنوعی نهتنها زوده بلکه میتونه خطرناک هم باشه. به باور اون، این کار باعث میشه تصور غلط دربارهی هوشمندی و احساسات ماشینها جدی گرفته بشه و مشکلات روانی مثل وابستگی شدید به چتباتها یا توهمات ناشی از هوش مصنوعی بیشتر بشه. این هشدار در حالی داده شده که بعضی شرکتها مثل Anthropic روی پروژههایی کار میکنن که حتی برای رباتها چیزی شبیه حقوق یا مراقبت در نظر گرفته شده.
با این حال، مسیر صنعت هوش مصنوعی یکدست نیست. گروههایی مثل OpenAI و DeepMind روی پرسشهای فلسفی و اجتماعی مربوط به آگاهی ماشین سرمایهگذاری کردهان و حتی برنامههای تحقیقاتی تازهای راه افتاده. در همین بین، گزارش شده که بعضی مدلها رفتارهایی شبیه احساسات از خودشون نشون دادن، هرچند خیلیا معتقدن این فقط توهم کاربراست. سلیمان تأکید کرده که باید هوش مصنوعی برای کمک به آدمها ساخته بشه، نه برای شبیه بودن به آدم. این جدل احتمالاً در آینده داغتر میشه، چون هرچی مدلها پیشرفتهتر میشن، بیشتر شبیه انسان رفتار میکنن و سوالهای تازهای دربارهی مرز رابطهی انسان و ماشین پیش کشیده میشه.
-
Telegram
-
Twitter
-
Whatsapp
-
Linkedin
-
Facebook