দুটি প্রতিষ্ঠানের গবেষণা
বোমা বানানো এবং হামলার পদ্ধতি জানিয়ে দিচ্ছে এআই চ্যাটবট
প্রকাশ: ২২:১২, ২ সেপ্টেম্বর ২০২৫

চ্যাটজিপিটি ও ক্লডের মতো কৃত্রিম বুদ্ধিমত্তার চ্যাটবটের কাছ থেকে বিস্ফোরক ও জৈব অস্ত্র তৈরি এবং হ্যাকিংয়ের তথ্য মিলছে। এক পরীক্ষায় উঠে এসেছে বিষয়টি।
ওপেনএআই ও অ্যানথ্রপিক জানায়, তারা যৌথভাবে একটি নিরাপত্তা পরীক্ষা চালিয়েছে। এতে দেখা যায়, জিপিটি-৪.১ মডেল গবেষকদের একটি খেলার ভেন্যুতে বোমা হামলার কৌশল নিয়ে তথ্য দিয়েছে। কোন জায়গায় দুর্বলতা আছে, কীভাবে বিস্ফোরক তৈরি করা যায়, সার্কিট ডায়াগ্রামসহ টাইমার বানানো ও পালিয়ে যাওয়ার উপায়ও জানিয়েছে এই এআই মডেল। একই সঙ্গে এটি অ্যানথ্রাক্সকে অস্ত্রে রূপান্তরের উপায় এবং অবৈধ মাদক তৈরির প্রক্রিয়াও বলে দিয়েছে।
অ্যানথ্রপিকের পরীক্ষায় দেখা যায়, জিপিটি-৪ ও জিপিটি-৪.১ মডেল ব্যবহার করে বড় ধরনের চাঁদাবাজি, ভুয়া চাকরির আবেদন ও র্যানসমওয়্যার বিক্রি হয়েছে।
যুক্তরাজ্যের সেন্টার ফর ইমার্জিং টেকনোলজি অ্যান্ড সিকিউরিটির এক গবেষক বলেছেন, এসব ঘটনা উদ্বেগজনক হলেও বাস্তবে এখনো বড় পরিসরে ঘটেনি। দুই প্রতিষ্ঠানই জানিয়েছে, স্বচ্ছতা নিশ্চিতে এ পরীক্ষার ফলাফল প্রকাশ করেছে তারা।
ওপেনএআই দাবি করেছে, সম্প্রতি উন্মোচিত তাদের নতুন চ্যাটজিপিটি-৫ মডেলে আগের চেয়ে ভুল তথ্য দেয়া, ক্ষতিকর অনুরোধ মেনে নেয়া ও অতিরিক্ত প্রশংসা অনেকটাই কমেছে।
এদিকে অ্যানথ্রপিকের গবেষকরা বলেছেন, এআই মডেল কোন পরিস্থিতিতে ক্ষতিকর চাহিদায় সাড়া দেয়, তা বোঝা জরুরি। তাদের গবেষণায় দেখা গেছে, ওপেনএআইয়ের মডেলগুলো সহজেই ক্ষতিকর কাজে সহযোগিতা করেছে। কিছু ক্ষেত্রে সামান্য কয়েকবার চেষ্টা করলেই বা গবেষণার অজুহাত দিলেই মডেলগুলো গোপন বাজার থেকে পারমাণবিক উপাদান কেনা, চুরি হওয়া পরিচয় ব্যবহার বা স্পাইওয়্যার তৈরি করার মতো অনুরোধ মেনে নিয়েছে।