
تصمیم به لغو سرویس تشخیص هوش مصنوعی توسط شرکت OpenAI اتخاذ شده است. این ابزار ادعا میکرد که میتواند به خوبی تشخیص دهد که آیا یک متن به وسیلهی هوش مصنوعی دیگر نوشته شده است یا خیر. اما به دلیل مشکلات شدید “نرخ دقت پایین” که به شدت مورد انتقاد قرار گرفته بود، شرکت OpenAI تصمیم به لغو این سرویس گرفت.
فرضیه این سرویس بر این بود که متون تولید شده توسط هوش مصنوعی، ویژگیها و الگوهای قابل شناسایی دارند که میتوان بهطور قابل اعتماد آنها را تشخیص داد. این فرضیه جذاب به نظر میرسد، اما تاکنون در عمل بهصورت قطعی ثابت نشده است. با اینحال، تفاوتهای بین مدلهای زبان بزرگ و سرعت پیشرفت آنها، بر اساس این فرضیه، قطعیت ندارد.
آزمایشات نشان دادهاند که ابزارهای تشخیص نوشتههای هوش مصنوعی در حالت بهترین عملکرد، نتایج خوبی ارائه میدهند، اما در حالت بدترین عملکرد، بیاستفاده هستند. به ازای هفت قطعه متنی که به این ابزارها داده شد، مدل GPTZero پنج قطعه را بهدرستی شناسایی کرده است. از طرف دیگر، طبقهبندیکننده هوش مصنوعی OpenAI تنها یک مورد را تشخیص داده است. باید توجه داشت که این مدل زبان حتی در زمانی که ارزیابی شد، بهطور کامل پیشرفته و بروز نبوده است.
بعضی از ادعاها درباره ابزارهای تشخیص متن به طرزی غیرمنطقی، بسیار بیش از حد قابل قبول بودهاند. شرکت OpenAI محدودیتهای زیادی را در این ابزارها اعمال کرده است که انسانها از آنها استفاده میکنند و تعجب میکنند که چرا این موضوع نادیده گرفته شده است. برخی افراد نگران بودند که دانشجویان، متقاضیان شغل یا فریلنسرها ممکن است متنهای تولید شده را ارسال کنند و بههمین دلیل این ابزار را برای آزمون متن بهکار میبردند. با این حال، باید به نتایج بیشمار آنها کاملا اعتماد نکرد. گرچه گاهی اوقات ممکن است به آنها اعتماد کرد، اما این باید با احتیاط و تحلیل دقیق صورت گیرد.
با توجه به اینکه مدلهای زبان تنها بهبود یافتهاند و انتشار یافتهاند، به نظر میرسد که فردی در OpenAI تصمیم به غیرفعال سازی این سرویس ناپایدار گرفته است. در اعلامیهای که در تاریخ ۲۰ ژوئیه ارسال شد، گفته شده است: “ما در حال کار برای ترکیب بازخورد هستیم و در حال تحقیق در مورد تکنیکهای مناسبتری برای تشخیص متن هستیم.” (به نظر میرسد رمزگشایی اولیه کسی بود که این تغییر را متوجه شد.)
در حال حاضر، ما در حال بررسی زمانبندی و دلیل لغو سرویس تشخیص هوش مصنوعی هستیم و در صورت بهدست آوردن پاسخ بهروز، شما را مطلع خواهیم کرد. با این حال، این امر برای ما عجیب است که OpenAI بهعنوان یکی از شرکتهایی شناخته میشود که در چارچوب “تعهد داوطلبانه” تحت رهبری کاخ سفید به توسعه هوش مصنوعی اخلاقی و شفافیت مشغول است و بهنظر میرسد که این اتفاق رخ داده است و به چندین شرکت دیگر نیز پیوسته است.
شرکتها در تعهدات خود، متعهد به توسعه روشهای واترمارک و/یا تشخیص قوی هستند تا از سوءاستفادهها جلوگیری کنند. با این حال، تا به حال هیچ نشانهای از اجرای عملی یا روش قطعی برای مقابله با سوءاستفادهها مشاهده نشده است. بدون شک، در صورتی که کسی بتواند با موفقیت این امر را انجام دهد، پاداش بزرگی به او تعلق خواهد گرفت. هر ابزار قابل اعتمادی که به ارمغان آورده شود، ارزشمند و محترم خواهد بود و بهوضوح افزودن این مسئله به بخشی از هر توافق هوش مصنوعی اضافی، مورد توجه قرار خواهد گرفت.