News Views Events

چیتے کےساتھ گلگت بلتستان کی لڑکی کی تصویر سے متعلق اہم انکشاف

1

گلگت بلتستان کی ایک لڑکی اور چیتے کے بچے کی جو تصویر سوشل میڈیا پر وائرل ہوئی ہے وہ جعلی نکلی۔ یہ تصویر مصنوعی ذہانت کی مدد سے تیار کی گئی۔
ایک سوشل میڈیا پوسٹ میں بتایا گیا تھا کہ لڑکی کا نام گل مینا ہے جو گلگت بلتستان کے علاقے شمشال میں مدان کی رہنے والی ہے۔ بتایا گیا کہ اُس نے چیتے کے بچے کو پالا تھا جو اب بڑا ہوچکا ہے اور پہاڑوں پر رہتا ہے اور کبھی کبھی گل مینا سے ملنے آتا ہے۔
بھارتی جریدے انڈیا ٹوڈے نے اپنی ویب سائٹ پر بتایا کہ یہ تصویر مصنوعی ذہانت کے ٹول مِڈ جرنی کے ذریعے بنائی گئی۔ فیس بک سے پہلے یہ تصویر 24 مارچ کو انسٹا گرام ’ببرک‘ نامی اکاؤنٹ کے ذریعے شیئر کیا گیا تھا۔ انسٹا گرام کی پوسٹ پر تبصروں میں کسی نے پوچھا کہ تصویر کیسے لی گئی تو بتادیا گیا کہ مِڈجرنی کی مدد سے لی گئی۔ مصنوعی ذہانت والی کمپنی اینوڈیا کو بھی خراجِ تحسین پیش کیا گیا۔
یقیناً بہت سے سوشل میڈیا صارفین نے اس تصویر کو حقیقت میں ایک سچی تصویر سمجھا ہوگا مگر حقیقت میں یہ تصویر آرٹیفیشل انٹیلیجنس یعنی اے آئی کے مدد سے تخلیق کی گئی ایک تصویر تھی، جس کے وائرل ہونے پر سوشل میڈیا پر تبصروں میں تصویر کی حقیقت زیربحث رہی ہے۔
آج کل آرٹیفیشل انٹیلیجنس یا مصنوعی ذہانت کی مدد سے بنائی گئی تصاویر ان ٹرنیٹ پر وائرل ہو رہی ہیں، مصنوعی ذہانت کے نئے فیچر دنیا کے لیے نہ صرف حیران کن ثابت ہو رہے ہیں، بلکہ ماہرین کے مطابق یہ معاشرے کے لیے اتنے ہی خطرناک بھی ثابت ہو سکتے ہیں، جس کا اندازہ سوشل میڈیا پر ان اے آئی کے ذریعے تخلیق کردہ تصاویر پر کمنٹس اور ری پوسٹ سے لگایا جا سکتا ہے۔
اے آئی کی مدد سے آڈیو، ویڈیو اور تصاویر ایڈیٹ کرنے والے فیچرز سوشل میڈیا صارفین کے لیے دلچسپی کا مرکز ہیں لیکن شاید وہ اس اس حقیقیت سے آگاہ نہیں ہیں کہ اے آئی کی مدد سے تخلیق کردہ تصاویر کسی کی زندگی کو بھی متاثر کر سکتی ہیں کیونکہ ٹیکنالوجی اور وہ بھی بطورِ خاص اے آئی ٹیکنالوجی سے نا آشنا فرد جعلی اور حقیقی تصویر کا فرق نہیں جان سکتا۔
گزشتہ ماہ سوشل میڈیا پلیٹ فارم ’ایکس‘ پر اللہ دتہ شاہ نامی صارف نے مریم نواز کی اے آئی کی مدد سے تخلیق کی گئی ایک تصویر پوسٹ کی، جس میں انہیں مہندی رنگ کا لباس زیب تن کیے ایک ہیلی کاپٹر کے سامنے کھڑا دکھایا گیا تھا، اس پوسٹ پر بھی سوشل میڈیا صارفین کی جانب سے جذباتی رد عمل سامنے آیا۔
صرف یہی نہیں اس سے قبل شاہ رخ خان، رونالڈو، سیلینا گومیز میسی اور دیگر بڑے ستارے پاکستان کے روایتی لباس میں پاکستان کے مختلف مقامات پر دکھائے جاچکے ہیں، اور یہ سب بھی اے آئی کی مدد سے تخلیق کردہ تصاویر تھیں۔
اے آئی کیوں اور کیسے خطرناک ہے؟
جرمن جریدے ڈیر اشپیگل کی ایک رپورٹ کے مطابق انفارمیشن ٹیکنالوجی کے ماہرین نے ٹیلی گرام پر شیئر ہونے والے ایک ایسے پروگرام کا سراغ لگایا، جو چند ہی کلکس میں ایک عام تصویر کو برہنہ تصویر میں تبدیل کر دیتا ہے۔ ان نقلی یا ڈیپ فیک تصاویر کی تیاری میں مصنوعی ذہانت کا استعمال کیا جاتا ہے۔
اسی طرح میڈیا رپورٹس کے مطابق اکتوبر 2023 میں اسپین کے ایک قصبے المیندرالیجو میں نوجوان لڑکیوں کی اے آئی سے تیار کردہ برہنہ تصاویر سوشل میڈیا پلیٹ فارمز پر ان کے علم یا رضامندی کے بغیر پوسٹ کی گئیں، متاثرہ لڑکیوں میں سے کچھ کی عمریں 11 سے 17 سال تک تھیں۔ اور ان اے آئی جنریٹیڈ تصاویر نے نہ صرف بچیوں کو بلکہ ان کے والدین کو بھی پریشانی میں مبتلا کیا۔
واضح رہے کہ رپورٹ کے مطابق ان لڑکیوں کی زیادہ تر تصاویر ان کے سوشل میڈیا اکاؤنٹس سے لی گئی تھیں اور پھر ایک اے آئی ایپلی کیشن کے ذریعے کپڑوں کے بغیر تصاویر تیار کی گئیں، متاثرین میں سے ایک کی والدہ ڈاکٹر مریم الادیب نے ایک انسٹاگرام ویڈیو میں اس معاملہ پر تبصرہ کرتے ہوئے کہا کہ تحریف شدہ تصاویر حقیقی لگتی ہیں اور ہر کسی کے لیے خاص طور پر ان کی 14 سالہ بیٹی کے لیے کافی پریشان کن ہیں۔
ڈاکٹر مریم نے فیک تصویر بنانے والے کو مخاطب کرتے ہوئے کہا کہ آپ اس نقصان سے واقف نہیں ہیں جو آپ پہنچا رہے ہیں۔ ’اگر میں اپنی بیٹی کے جسم کو نہیں پہچانتی تو یہ تصویر مجھے بھی اصلی لگتیں، اس نفرت انگیز مواد کو تخلیق کرنے کے لیے تصاویر کا استعمال کرنا اور انہیں تقسیم کرنا بہت سنگین جرم ہے۔‘
ورلڈ اکنامک فورم نے بھی اپنے سالانہ رسک سروے میں مصنوعی ذہانت کے نتیجے میں پھیلنے والی غلط معلومات کو آئندہ 2 سالوں میں سب سے بڑا خطرہ قرار دیا ہے۔
گرافیکا نامی کمپنی کی تحقیق میں بتایا گیا کہ ستمبر 2023 میں 2 کروڑ 40 لاکھ افراد نے ڈیپ فیک تصاویر تیار کرنے والی ویب سائٹس استعمال کیں، ڈیپ فیک ٹیکنالوجی استعمال کرنے والی بیشتر ایپس یا ویب سائٹس کی جانب سے مقبول سوشل نیٹ ورکس کو مارکیٹنگ کے لیے استعمال کرکے لوگوں کو اپنی جانب کھینچا گیا۔
واضح رہے کہ ڈیپ فیک ایک ایسی ہی ٹیکنالوجی ہے جس میں کسی فرد کے چہرے یا آواز کو دوسرے شخص سے با آسانی بدلا جاسکتا ہے،جس سے گمان ہوتا ہے کہ وہ ایسے شخص کی فوٹو، ویڈیو یا آڈیو ہے جو دراصل اس کی ہوتی ہی نہیں، تحقیق کے مطابق اس طرح کی بیشتر سروسز صرف خواتین کی تصاویر پر ہی کام کرتی ہیں۔
اے آئی کی مرہونِ منت جعلی اور حقیقی تصویر کی شناخت کیسے کی جا سکتی ہے؟
اس حوالے سے بات کرتے ہوئے اے آئی ماہر اسامہ احمد کہتے ہیں کہ ایک عام انسان کے لیے اے آئی جنریٹیڈ تصاویر کی شناخت کرنا آسان نہیں ہے اور نہ ہی اب تک اس کا کوئی طریقہ سامنے آیا ہے، البتہ اس کا ڈیجیٹل فورینزک تجزیہ ممکن ہے، جس نہ صرف تصویر میں موجود ’ڈیفیکٹ‘ بلکہ اسی طرح اس کے اے آئی پیٹرن کا بھی پتا چلایا جا سکتا ہے۔
’’ کچھ ٹولز موجود ہیں لیکن وہ بھی تضادات اور رجحانات دیکھتے ہوئے اس بات کی تشخیص کر سکتا ہے کہ یہ اے آئی امیج ہے یا انسان کی خود کی لی ہوئی تصویر ہے۔ لیکن اس میں بھی 100 فیصد رزلٹ نہیں آتے، یہاں تک کے اے آئی جنریٹڈ ویڈیوز اور امیجز کے تمام ٹولز صرف پیٹرن ہی بتا سکتے ہیں، باقی سب ایریر ہی دیتے ہیں۔‘
ایک سوال پر اسامہ احمد کا کہنا تھا کہ اے آئی جنریٹیڈ تصاویر کے پس منظر سے بھی اندازہ لگایا جا سکتا ہے۔ ’ کیونکہ اے آئی سے بنائی گئی تصاویر کا پس منظر دھندلا ہو سکتا ہے، اس کے علاوہ تصویر میں موجود شخص کے دانت، کانوں کی ساخت اور ہاتھ کی انگلیاں بھی عجیب و غریب ہو سکتی ہیں۔

Leave A Reply

Your email address will not be published.