OpenAI هوش مصنوعی بعدی خود را ابتدا در اختیار دولت قرار میدهد_اسپایدر

نوشته و ویرایش شده توسط تیم اسپایدر
«سم آلتمن»، مدیرعامل OpenAI خبرداد که این استارتاپ بهگفتن بخشی از برنامههای خود در عرصه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوشمصنوعی ایالات متحده قرار خواهد داد.
همانطور که تککرانچ در گزارش خود توضیح میدهد، اکنون نگرانیهای بسیاری از این بابت وجود دارد که OpenAI زیاد تر بهجستوجو گسترش مدلهای هوشمصنوعی قوی است و بههمین ایمنی را چندان در برتریهای خود قرار نداده است.
اهمیت ایمنی هوش مصنوعی برای OpenAI

با اشاره به این نوشته، مدیرعامل OpenAI در ایکس درمورد اهمیت ایمنی برای این استارتاپ میگوید:
«همانطور که در ژوئیه قبل نیز گفتیم، ما متعهد هستیم که حداقل ۲۰ درصد از منبع های محاسباتی خود را به کوششهای مربوط به ایمنی کل شرکت تعلق دهیم.
تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در عرصهای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم میکند تا بتوانیم با همکاری یکدیگر علم برسیهای هوش مصنوعی را به جلو پیش ببریم. برای این همکاری شوقزده هستیم!»
در ماههای قبل، حرف هایشده می بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستمهای هوش مصنوعی کار میکردند. همین نوشته علتشده می بود تا دو رهبر این استارتاپ با نامها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوشمصنوعی آنتروپیک را رهبری میکند و «ایلیا سوتسکور» که شرکت هوشمصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.
موسسه ایمنی هوشمصنوعی در اغاز سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را اغاز کرد. در وبسایت NIST، مقصد آن «گسترش دستورالعملها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازهگیریها و سیاستهای هوش مصنوعی و تشکیل پایهای برای ایمنی هوشمصنوعی در سراسر جهان» یاد شده است.
دسته بندی مطالب