برندهای خارجی

تحلیلی تازه درباره هوش مصنوعی: چت‌جی‌پی‌تی در برابر تأثیرات زیست‌محیطی

مطالعات جدید نشان می‌دهند که میزان مصرف انرژی چت‌جی‌پی‌تی کمتر از آن چیزی است که قبلاً تصور می‌شد. با این وجود، این مصرف تا حد زیادی به نوع استفاده کاربران و مدل‌های هوش مصنوعی مورد استفاده بستگی دارد. با افزایش سریع زیرساخت‌های هوش مصنوعی و نگرانی‌ها درباره تأثیرات زیست‌محیطی، این یافته‌ها می‌تواند به تنظیم بهتر استراتژی‌های به‌کارگیری هوش مصنوعی کمک کند.

به گزارش توسعه برند به نقل از تک‌کرانچ، چت‌جی‌پی‌تی، پلتفرم چت‌بات شرکت OpenAI، ممکن است به اندازه‌ای که قبلاً تصور می‌شد پرمصرف نباشد. با این حال، مصرف انرژی آن تا حد زیادی به نحوه استفاده کاربران و مدل‌های هوش مصنوعی که به پرسش‌ها پاسخ می‌دهند، بستگی دارد. این موضوع در یک مطالعه تازه توسط مؤسسه تحقیقاتی غیرانتفاعی Epoch AI بررسی شده است.

بر اساس تحلیل اخیر Epoch، مصرف انرژی یک پرسش معمولی در چت‌جی‌پی‌تی کمتر از آن چیزی است که پیش‌تر گفته می‌شد. طبق آمارهای رایج، چت‌جی‌پی‌تی برای پاسخ به یک پرسش به طور میانگین ۳ وات-ساعت برق مصرف می‌کند که ۱۰ برابر بیشتر از مصرف انرژی یک جستجوی ساده در گوگل است. اما Epoch این رقم را بیش از حد برآوردشده می‌داند.

تحلیل این مؤسسه نشان می‌دهد که استفاده از آخرین مدل پیش‌فرض چت‌جی‌پی‌تی، یعنی GPT-4o، میانگین مصرف انرژی را به ۰.۳ وات-ساعت کاهش داده است؛ کمتر از مصرف بسیاری از وسایل خانگی. جاشوا یو، تحلیل‌گر داده‌ها در Epoch که این تحقیق را هدایت کرده، به TechCrunch گفت:
«مصرف انرژی چت‌جی‌پی‌تی در مقایسه با استفاده از وسایل خانگی معمولی، سیستم گرمایش و سرمایش خانه یا حتی رانندگی با خودرو، مسئله‌ی چندانی نیست.»

بحث درباره تأثیرات زیست‌محیطی هوش مصنوعی:

مصرف انرژی هوش مصنوعی و تأثیر آن بر محیط زیست مدت‌هاست موضوعی بحث‌برانگیز بوده است، به‌ویژه در زمانی که شرکت‌های هوش مصنوعی به دنبال گسترش سریع زیرساخت‌های خود هستند. اخیراً بیش از ۱۰۰ سازمان، با انتشار نامه‌ای سرگشاده از صنعت هوش مصنوعی و نهادهای نظارتی خواستند تا اطمینان حاصل شود که مراکز داده جدید هوش مصنوعی منابع طبیعی را از بین نمی‌برند و باعث وابستگی به انرژی‌های غیرقابل تجدید نمی‌شوند.

یو دلیل انجام این تحلیل را اطلاعات قدیمی و ناصحیح تحقیقات پیشین عنوان کرد. او به عنوان یک نمونه گفت که گزارش قبلی که مصرف ۳ وات-ساعت برای هر پرسش را تخمین زده بود، بر اساس پردازنده‌های قدیمی‌تر و کم‌بازده‌تر OpenAI انجام شده است. وی افزود:
«بحث عمومی درستی شکل گرفته که هوش مصنوعی در سال‌های آینده انرژی بیشتری مصرف خواهد کرد، اما تا حالا مصرف انرژی واقعی هوش مصنوعی چندان دقیق بررسی نشده بود. همچنین، تخمین مصرف ۳ وات-ساعت بر اساس تحقیقات قدیمی و محاسبات تقریبی بیش از حد زیاد به نظر می‌رسید.»

هرچند، رقم ۰.۳ وات-ساعت نیز یک تخمین است و OpenAI هنوز اطلاعات دقیقی برای محاسبات دقیق منتشر نکرده است. این ارزیابی همچنین هزینه‌های اضافی مرتبط با ویژگی‌های چت‌جی‌پی‌تی مانند تولید تصاویر یا پردازش ورودی‌های طولانی را در نظر نمی‌گیرد. یو اذعان داشت که پرسش‌هایی که ورودی‌های طولانی یا فایل‌های بزرگ دارند، احتمالاً برق بیشتری نسبت به یک پرسش معمولی مصرف می‌کنند.

افزایش مصرف انرژی هوش مصنوعی در آینده:

با این حال، یو انتظار دارد که مصرف پایه انرژی چت‌جی‌پی‌تی افزایش یابد:
«هوش مصنوعی پیشرفته‌تر خواهد شد. آموزش این مدل‌ها به انرژی بیشتری نیاز دارد، و کاربردهای آینده آن‌ها شامل وظایف پیچیده‌تر و گسترده‌تری خواهد بود که از چت‌جی‌پی‌تی کنونی بیشتر است.»

با وجود پیشرفت‌های چشمگیر اخیر در کارایی هوش مصنوعی، مقیاس گسترده‌ای که در حال حاضر در آن به کار گرفته می‌شود زیرساخت‌های عظیمی را که نیازمند انرژی هستند توسعه می‌دهد. طبق گزارشی از مؤسسه Rand، مراکز داده هوش مصنوعی ممکن است در دو سال آتی به ظرفیت برق مورد نیاز مشابه با توان الکتریسیته کل کالیفرنیا در سال ۲۰۲۲ (۶۸ گیگاوات) برسند. این گزارش همچنین پیش‌بینی کرده که تا سال ۲۰۳۰ آموزش یک مدل پیشرفته می‌تواند به اندازه هشت راکتور هسته‌ای (۸ گیگاوات) برق نیاز داشته باشد.

چت‌جی‌پی‌تی به تنهایی تعداد زیادی کاربر را در سراسر دنیا جذب کرده است و به طور مداوم این تعداد در حال افزایش است؛ این موضوع نیاز به سرورهای بیشتر و ظرفیت زیرساختی بزرگ‌تر را توضیح می‌دهد. OpenAI و شرکای سرمایه‌گذاری‌اش برنامه دارند طی چند سال آینده میلیاردها دلار در پروژه‌های جدید مراکز داده هوش مصنوعی سرمایه‌گذاری کنند.

مدل‌های جدید و مصرف انرژی بیشتر:

توجه OpenAI و صنعت هوش مصنوعی به مدل‌های استدلالی (reasoning models) در حال افزایش است. این مدل‌ها قادر به انجام وظایف پیچیده‌تر هستند اما برای عملکرد به محاسبات بیشتری نیاز دارند. برخلاف مدل‌هایی مثل GPT-4o که تقریباً بلافاصله به سؤالات پاسخ می‌دهند، مدل‌های استدلالی برای پردازش و تولید پاسخ به چند ثانیه یا حتی چند دقیقه زمان نیاز دارند. همین فرایند، مصرف انرژی را بیشتر می‌کند.

مدل‌های جدیدتر OpenAI مانند o3-mini که کارایی انرژی بیشتری دارند، به تازگی عرضه شده‌اند. اما به نظر می‌رسد که در حال حاضر این پیشرفت‌ها نمی‌توانند افزایش مصرف انرژی ناشی از استفاده روبه‌رشد از هوش مصنوعی و فرایند «تفکر» مدل‌های استدلالی را جبران کنند.

یو پیشنهاد کرد کسانی که نگران اثرات زیست‌محیطی هوش مصنوعی هستند، از اپلیکیشن‌هایی مثل چت‌جی‌پی‌تی کمتر و با دقت بیشتر استفاده کنند و مدل‌هایی را انتخاب کنند که نیاز محاسباتی کمتری دارند. او افزود:
«می‌توانید از مدل‌های کوچک‌تر هوش مصنوعی مثل GPT-4o-mini استفاده کنید و تا حد امکان از ایجاد پرسش‌هایی که نیاز به پردازش یا تولید داده زیاد دارند، خودداری کنید.»

اخبار مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا