KEY POINTS
- عدالتی کیسز کی تیاری کے لئے چیٹ جی پی ٹی کے استعمال پر وکیل پر پابندی عائید کی جاسکتی ہے۔
- چیٹ بوٹ پر ایسے فرضی مقدمات پائے گئے جنہیں وکیل نے مقدمے کی تیاری میں حوالے کے طور پر استعمال کیا۔
- جج نے کہا کہ ان کو فرضی مقدموں کے ایسے حوالوں کا سامنا ہے جو انہیں نے عمر بھر نہیں سنے
نیویارک کے وکیل کو قانونی تحقیق کے لیے ChatGPT استعمال کیا مگر فراہم کردہ کیسسز فرضی ثابت ہوئے۔سٹیون اے شوارٹز، جنہوں نے ریاست میں تین دہائیوں سے زیادہ عرصے سے قانون کی مشق کی ہے، رابرٹو ماٹا کی قانونی ٹیم کا حصہ تھے - ایک شخص نے ایئر لائن ایویانکا پر ایک مبینہ واقعے پر مقدمہ دائر کیا جہاں ایک سرونگ ٹرالی نے اسکے گُھٹنے کو ٹکر مار کر انہیں زخمی کر دیا تھا۔ لیویڈو اینڈ اوبرمین کے وکیل مسٹر شوارٹز نے پیروی کے لئے فائیل تیار کی جس میں کیس ثابت کرنے کے لیے ماضی کے کی کسی مثال کا استعمال کیا جانا چاہیے تھا ۔ پیروی کے دوران کیس نے ایئر لائن کی قانونی ٹیم کو اس وقت متوجے کیا جب انہیں علم ہوا کے فائیل میں دی گئی مقدمے کی مثال حقیقت میں سرے سے موجود ہی نہیں ہے۔ ٹیم نے جج کو لکھا کہ وہ ایسے کسی مقدمے کی مثال نہیں ڈھونڈ سکے جس کا حوالہ دیا گیا تھا۔
Tاس کے جج نے مسٹر شوارٹز اور ان کے ایک ساتھی پیٹر لوڈوکا کو حکم دیا ہے کہ وہ وضاحت کریں کہ انہیں سزا کیوں نہیں دی جانی چاہیے، ایک حکم میں کہا گیا ہے کہ انہیں "غلط اور فرضی مثالوں" کے ساتھ کیس پیش کیا گیا تھا۔
جج پی کیون کاسٹیل نے لکھا، "جمع کرائے گئے مقدمات میں سے چھ جعلی حوالوں اور بوگس اندرونی حوالوں کے ساتھ جعلی عدالتی فیصلے پائے گئے ہیں۔"
مسٹر شوارٹز نے ایک حلف نامے میں لکھا کہ مسٹر لوڈوکا کا نام دستاویزات میں درج کیا گیا تھا کیونکہ انہیں وفاقی عدالت میں پریکٹس کے لیے داخل نہیں کیا گیا تھا - جہاں مقدمہ اصل میں ریاستی عدالت میں دائر کیے جانے کے بعد منتقل کر دیا گیا تھا۔ انہوں نے کہا کہ وہ اس کیس کے لیے تمام قانونی کام انجام دیتے رہے اور مسٹر لوڈوکا کو اس بات کا علم نہیں تھا کہ انہوں نے کیس کی پیروی کی فائیل بنانے کے لیے ChatGPT کا استعمال کیا ہے۔

The Writers Guild of America is seeking to limit the amount of artificial intelligence that can be used in TV and film scripts. Source: SBS / Michael Dwyer/AP
چیٹ جی پی ٹی مصنوئی ذہانت کا ایک ایسا پروگرام ہے جو مواد کی درخواست کرنے پر بنی بنائی معلومات چند منٹوں میں فراہم کردیاتا ہے۔ مگر اس کے ساتھ یہ تنبیہ بھی موجود ہوتی ہے کہ یہ پروگرام غلط معلومات بھی فراہم کر سکتا ہے۔
Iاپنے حلف نامے میں، مسٹر لوڈوکا نے لکھا کہ ان کے پاس کیس ورک یا مسٹر شوارٹز کی تحقیق پر "شک کرنے کی کوئی وجہ نہیں ہے"۔مسٹر شوارٹز نے لکھا کہ ان کا عدالت یا ایوانکا کو "دھوکہ دینے کا کوئی ارادہ نہیں تھا" اور ChatGPT استعمال کرنے پر "بہت پچھتاوا" ہے، کہنا تھا کہ انہوں نے قانونی تحقیق کے دوران پہلے کبھی چیٹ جی پی ٹی استعمال نہیں کیا تھا۔
ان کے مطابق چیٹ جی پی ٹی نے "اپنا قانونی حوالہ فراہم کیا تھا اور اس کے مواد کیے حقیقی ہونے کی یقین دہانی کرائی تھی"، لیکن آخر کار " چیٹ جی پی ٹی نے خود کو ناقابل اعتبار ثابت کیا"۔.
ان کے حلف نامے کے ساتھ وہ اسکرین شاٹس منسلک ہیں جو چیٹ بوٹ کے ساتھ مسٹر شوارٹز کے سوال جواب کا حصہ معلوم ہوتے ہیں۔اسکرین ژاٹس کے مطابق ChatGPT سے پوچھا جاتا ہے کہ کیا اس کے فراہم کردہ کیسز حقیقی ہیں۔ جس کے جواب چیٹ بوٹ ا نکے ھقیقی لیگل کیسسز ہونے کی تصدیق کرتا ہے۔اور ان کیسیز کے ماخذ کے بارے میں پوچھنے پر چیٹ بوٹ نے جواب دیا کہ "دوہبار کی جانچ پڑتال کے بعد یہ تصدیق کی جاتی ہے کہ "، کیس کی مثالیں درست ہیں اور یہ قانونی تحقیقی ڈیٹا بیس میں موجود ہیں۔ چیٹ بوٹ یہ بھی بتایا کہ اس نے جو دیگر معاملات فراہم کی ہیں وہ بھی حقیقی ہیں۔
وکلاء کو 8 جون کو ہونے والی سماعت میں وضاحت کرنے کا حکم دیا گیا ہے۔