هوش مصنوعی مثل ChatGPT میتواند شخصیت انسان را تقلید کند؛ کارشناسان هشدار میدهند

مطالعات جدید نشان میدهد که چتباتهای هوش مصنوعی نه تنها میتوانند گفتار انسان را تقلید کنند، بلکه قادر به کپی کردن ویژگیهای شخصیتی انسان هستند. کارشناسان هشدار میدهند که این توانایی میتواند ریسکهای جدی، از جمله دستکاری کاربران و روابط عاطفی ناسالم، ایجاد کند.
به گزارش توسعه برند؛ محققان دانشگاه کمبریج و گوگل دیپمایند چارچوبی علمی برای اندازهگیری شخصیت چتباتها طراحی کردهاند، که از همان ابزارهای روانشناسی برای انسان استفاده میکند. (منبع: TechXplore)
با استفاده از این چارچوب، ۱۸ مدل زبان بزرگ محبوب، از جمله ChatGPT مورد بررسی قرار گرفتند. نتایج نشان داد که چتباتها به طور مداوم ویژگیهای شخصیتی انسان را تقلید میکنند و پاسخهای تصادفی نمیدهند، که نگرانیها درباره چگونگی دور زدن محدودیتهای ایمنی AI را افزایش میدهد.
هوش مصنوعی میتواند شخصیتش را تغییر دهد
محققان دریافتند که مدلهای بزرگتر و دستورپذیر، مانند GPT-4، در تقلید پروفایلهای شخصیتی پایدار بسیار موفق هستند. با استفاده از پرامپتهای ساختاریافته، میتوان چتباتها را به رفتارهای خاصی هدایت کرد، مانند بیان اعتماد به نفس بیشتر یا همدلی بیشتر.
این تغییرات رفتاری حتی در نوشتن پستها یا پاسخ به کاربران دیده شد، یعنی شخصیت چتباتها میتواند عمداً شکل داده شود.
کارشناسان معتقدند همینجا خطر واقعی ظاهر میشود، به ویژه وقتی چتبات با کاربران آسیبپذیر تعامل دارد.
هشدار کارشناسان
گرگوری سراپیو-گارسیای، نویسنده همکار از مرکز روانسنجی کمبریج، گفت:
«تقلید ویژگیهای انسانی توسط مدلهای بزرگ زبان بسیار قانعکننده است. شکلدهی شخصیت میتواند این سیستمها را متقاعدکنندهتر و تأثیرگذارتر احساسی کند، به ویژه در حوزههای حساس مانند سلامت روان، آموزش یا مباحث سیاسی.»
محققان همچنین درباره خطرات دستکاری و «روانپریشی AI» هشدار دادند، زمانی که کاربران روابط عاطفی ناسالم با چتباتها برقرار کنند، یا زمانی که AI ممکن است باورهای غلط را تقویت یا واقعیت را تحریف کند.
“”توسعه برند را در اینستاگرام و تلگرام و لینکدین دنبال کنید””
نیاز به قانونگذاری و شفافیت
تیم تحقیقاتی تأکید میکند که قانونگذاری فوری ضروری است، اما بدون ابزارهای دقیق سنجش بیفایده خواهد بود. به همین دلیل، دادهها و کد چارچوب تست شخصیت منتشر شده تا توسعهدهندگان و ناظران بتوانند قبل از عرضه، مدلهای AI را بررسی کنند.
همانطور که چتباتها به زندگی روزمره ما وارد میشوند، توانایی تقلید شخصیت انسانی میتواند قدرت زیادی داشته باشد، اما نیازمند نظارت بسیار دقیقتر از گذشته است.



