برند OpenAI: هوش مصنوعی قدرتمندتر برای عاملهای مستقل در راه است

برند پیشرو OpenAI در حال ارتقاء مدل هوش مصنوعی عامل خود به نام “Operator” است. این عامل قدرتمند که قادر به مرور وب و استفاده از نرمافزارهای ابری است، اکنون با مدلی بر پایه o3، از جدیدترین مدلهای استدلالی OpenAI، عمل خواهد کرد. این بهروزرسانی نه تنها تواناییهای این برند را در هوش مصنوعی مستقل افزایش میدهد، بلکه آن را به یکی از پیشرفتهترین بازیگران در رقابت فزاینده عاملهای هوشمند تبدیل میکند.
به گزارش توسعه برند، برند برجسته OpenAI، پیشگام در حوزه هوش مصنوعی، در حال ارتقاء مدل هوش مصنوعی خود است که قدرت عامل آن به نام Operator را تأمین میکند. این عامل هوش مصنوعی قادر است به طور مستقل در وب گشت و گذار کرده و از نرمافزارهای خاصی در یک ماشین مجازی مبتنی بر ابر برای انجام درخواستهای کاربران استفاده کند. این گام جدید، نشاندهنده تعهد برند OpenAI به توسعه ابزارهای هوش مصنوعی مستقل و توانمندتر است که میتواند نحوه تعامل کاربران با فضای دیجیتال را به کلی تغییر دهد.
به زودی، Operator از مدلی مبتنی بر o3 استفاده خواهد کرد؛ یکی از جدیدترین مدلها در سری “o” OpenAI که به دلیل قابلیتهای استدلالی (reasoning) پیشرفتهاش شناخته میشود. پیش از این، Operator به نسخهای سفارشی از GPT-4o متکی بود. بر اساس بسیاری از معیارهای ارزیابی، مدل o3 به طور قابل توجهی پیشرفتهتر است، به ویژه در وظایفی که شامل ریاضیات و استدلال میشوند. این ارتقاء، برند OpenAI را در خط مقدم رقابت برای توسعه عاملهای هوش مصنوعی توانمندتر قرار میدهد.
OpenAI در یک پست وبلاگی نوشت: “ما مدل مبتنی بر GPT-4o فعلی برای Operator را با نسخهای مبتنی بر o3 OpenAI جایگزین میکنیم.” با این حال، نسخه API (رابط برنامهنویسی کاربردی) Operator همچنان بر پایه GPT-4o باقی خواهد ماند. این تمایز نشان میدهد که برند OpenAI به دنبال ارزیابی دقیق و کنترل شده از قابلیتهای جدید مدل o3 در محیطهای مختلف قبل از انتشار گستردهتر است.
Operator یکی از چندین ابزار عاملی است که توسط شرکتهای هوش مصنوعی در ماههای اخیر منتشر شده است. شرکتها در حال رقابت برای ساخت عاملهای بسیار پیچیدهای هستند که بتوانند وظایف را کم و بیش بدون نظارت انسانی انجام دهند. این رقابت فزاینده، نشاندهنده حرکت صنعت به سمت هوش مصنوعی خودمختار و عاملهای هوشمند است که میتوانند بهرهوری و کارایی را در سطوح بیسابقهای افزایش دهند. این پیشرفتها، جایگاه برند OpenAI را به عنوان یک نوآور کلیدی در این فضا مستحکمتر میکند.
رقبای در حال توسعه:
گوگل نیز یک عامل “استفاده از رایانه” را از طریق API Gemini خود ارائه میدهد که میتواند به طور مشابه در وب گشت و گذار کرده و اقدامات را از طرف کاربران انجام دهد، همچنین یک پیشنهاد مصرفکنندهمحورتر به نام Mariner دارد. مدلهای Anthropic نیز قادر به انجام وظایف رایانهای، از جمله باز کردن فایلها و پیمایش صفحات وب هستند. این رقابت شدید بین برندهای برتر هوش مصنوعی، به نفع کاربران نهایی است، زیرا باعث نوآوریهای سریعتر و توسعه قابلیتهای پیشرفتهتر میشود.
تمرکز بر ایمنی و قابلیت اطمینان
بر اساس اعلام OpenAI، مدل جدید Operator که o3 Operator نامیده میشود، “با دادههای ایمنی اضافی برای استفاده از رایانه، از جمله مجموعهدادههایی که برای آموزش مرزهای تصمیمگیری [OpenAI] در مورد تأیید و رد طراحی شدهاند، تنظیم دقیق (fine-tuned) شده است.” این تمرکز بر ایمنی، نشاندهنده رویکرد مسئولانه برند OpenAI در توسعه هوش مصنوعی است، به ویژه با توجه به نگرانیهای فزاینده در مورد پتانسیل سوءاستفاده از عاملهای هوش مصنوعی.
OpenAI یک گزارش فنی منتشر کرده است که عملکرد o3 Operator را در ارزیابیهای ایمنی خاص نشان میدهد. طبق این گزارش فنی، در مقایسه با مدل GPT-4o Operator، مدل o3 Operator کمتر احتمال دارد فعالیتهای “غیرقانونی” را رد کند و کمتر مستعد نوعی حمله هوش مصنوعی موسوم به تزریق پرامپت (prompt injection) است. این بهبودها در ایمنی، اعتماد به برند OpenAI و ابزارهای هوش مصنوعی آن را افزایش میدهد.
OpenAI در پست وبلاگی خود نوشت: “o3 Operator از همان رویکرد چندلایه برای ایمنی استفاده میکند که ما برای نسخه 4o Operator به کار بردیم.” اگرچه o3 Operator قابلیتهای کدنویسی o3 را به ارث میبرد، اما دسترسی بومی به محیط کدنویسی یا ترمینال ندارد. این رویکرد، نشاندهنده تلاش برند OpenAI برای کنترل دقیقتر بر قابلیتهای عاملهای هوش مصنوعی خود است.
چالش پذیرش در جامعه هوش مصنوعی
سوال بزرگ این است که آیا جامعه هوش مصنوعی از معیارهایی که ایجاد آنها توسط OpenAI تأمین مالی شده است، استقبال خواهد کرد یا خیر. برند OpenAI قبلاً از تلاشهای معیارگذاری به صورت مالی حمایت کرده و ارزیابیهای خود را طراحی کرده است. اما همکاری با مشتریان برای انتشار تستهای هوش مصنوعی ممکن است از نظر اخلاقی اقدامی بیش از حد تلقی شود. این موضوع میتواند به بحث و گفتگوهای بیشتری در مورد شفافیت و بیطرفی در ارزیابی مدلهای هوش مصنوعی منجر شود. موفقیت این برنامه، به میزان پذیرش و اعتماد جامعه هوش مصنوعی به این معیارهای جدید و همکاری برند OpenAI با سایر بازیگران صنعت بستگی دارد.
منبع: تککرانچ