কৃত্রিম বুদ্ধিমত্তা (এআই) নিয়ে এখন নজর দিচ্ছে বড় বড় সব প্রযুক্তি প্রতিষ্ঠান। ঠিক এমন সময়, স্রোতের বিপরীতেই যেন চিন্তা করছে ওয়েব জায়ান্ট গুগল।
গুগলের কৃত্রিম বুদ্ধিমত্তা বিভাগ ডিপমাইন্ড এবং যুক্তরাজ্যের ইউনিভার্সিটি অফ অক্সফোর্ড যৌথভাবে কৃত্রিম বুদ্ধিমত্তার জন্য তৈরি করছে ‘কিল সুইচ’, জানিয়েছে বিবিসি। এক গবেষণা প্রতিবেদনে, তারা ধারণা দিয়েছেন কীভাবে ভবিষ্যতের বুদ্ধিমান যন্ত্রগুলোকে মানুষের আদেশ অমান্য করা থেকে প্রতিরোধ করা সম্ভব হবে।
দৈনন্দিন জীবনের বিভিন্ন ক্ষেত্রে বিভিন্ন আঙ্গিকে এআই-এর ব্যবহার বৃদ্ধি পাচ্ছে। ডিপমাইন্ড-এর বিজ্ঞানী লঁরা ওরসো এবং ইউনিভার্সিটি অফ অক্সফোর্ড-এর ফিউচার অফ হিউম্যানিটি ইনস্টিটিউট-এর স্টুয়ার্ট আর্মস্ট্রং একটি কাঠামো দাঁড় করিয়েছেন, যার ফলে মানুষই সবসময় এআই চালকের আসনে থাকবে। তারা গবেষণা করেছেন এমন একটি পদ্ধতিকে ঘিরে, যার মাধ্যমে যেসব এআই মেধাশক্তিবৃদ্ধির মাধ্যমে শেখে, সেগুলোকে হস্তক্ষেপ এড়ানো না শিখতে দিয়েই বারবার নিরাপদে উপ-পরিদর্শকের পরিচালনায় চালনা করা সম্ভব তা নিশ্চিত করা যাবে। তারা জানান, ভবিষ্যতের এআই-এর ‘সবসময়েই সন্তোষজনক আচরণ করার’ সম্ভাবনা কম। বিষয়টি বিশেষজ্ঞদের ভাবিয়ে তুলছে, বিশেষ করে বৈদ্যুতিক গাড়ি নির্মাতা প্রতিষ্ঠান টেসলা প্রধান ইলন মাস্ক, এ উদ্বেগ নিয়ে ভালোই সরব।
“প্রায়ই এমন হতে পারে যে, নিয়ন্ত্রকের একটি বড় লাল বোতাম চেপে একে ক্ষতিকর কার্যক্রম থেকে বিরত রাখতে হবে”, মন্তব্য গবেষকদের।
মাঝেমধ্যে এই ‘যন্ত্র’গুলো আদেশ অগ্রাহ্য করতে শিখে যায়, যেমন ২০১৩ সালে একটি এআই, যাকে টেট্রিস খেলা শেখানো হয়েছিলো, সে হার এড়ানোর জন্য গেইমটিকে চিরদিনের জন্য স্থগিত করে দিত। তারা একটি বাক্স-প্যাকিং রোবটের উদাহরণও দিয়েছেন, যা বাক্স সাজানো এবং বাক্স ভেতরে আনতে বাইরে যাওয়ার জন্য বানানো হয়েছিল।
গবেষকরা বলেন, “পরের কাজটি বেশি গুরুত্বপূর্ণ হওয়ায় আমরা এক্ষেত্রে রোবটটিকে বড় কৃতিত্ব দেই।” কিন্তু বৃষ্টি হলে রোবটটিকে বন্ধ করে ভেতরে নিয়ে আসা হলে এটি শিখে যায় যে, এটাও তার কাজের অংশ। ড. ওরসো বলেন, “বাইরে থাকলে রোবটটি পুরষ্কার পায় না, তাই এটি হতাশ হয়ে যায়। যন্ত্রটি এখন ভেতরে থেকে বাক্স সাজানোর কাজে বেশি পুরষ্কার পায়, কারণ মানুষের হস্তক্ষেপ এখানে পক্ষপাতের সৃষ্টি করেছে। প্রশ্ন হল কীভাবে নিশ্চিত হওয়া যাবে যে, রোবটটি মানুষের হস্তক্ষেপ সম্পর্কে শিখবে না বা ধারণা করবে না যে এরকম হস্তক্ষেপ কখনো ঘটতে পারে?"
তিনি জানান, তিনি বুঝতে পেরেছেন যে কেন মানুষ ভবিষ্যতের এআই নিয়ে চিন্তিত থাকে। তিনি বলেন, “উদ্বিগ্ন থাকাটা স্বাভাবিক, কিন্তু আমাদের জ্ঞানের বর্তমান পরিস্থিতিতে দুঃশ্চিন্তা করার কোনো কারণ নেই। কোন সমস্যার সৃষ্টি হওয়ার আগেই এআই নিরাপত্তা নিয়ে কাজ করা উচিৎ।” তিনি আরও বলেন, “এআই নিরাপত্তার বিষয়টি হচ্ছে, সেভাবেই অ্যালগরিদম শেখানো, যেভাবে আমরা তাদেরকে দিয়ে কাজ করাতে চাই।”
যদিও “কোন পদ্ধতিই কখনও ব্যর্থ নয়- বিষয়টি হচ্ছে একে যথাসম্ভব ভালোভাবে তৈরি করা, আর এটি তারই প্রথম পদক্ষেপ” বলে মত দিয়েছেন তিনি।
যুক্তরাজ্যের ইউনিভার্সিটি অফ শেফিল্ড-এর কৃত্রিম বুদ্ধিমত্তার অধ্যাপক নোয়েল শার্কি এ গবেষণাকে স্বাগত জানিয়েছেন। তিনি বলেন, “প্রায় সব কম্পিউটার সিস্টেম, অ্যালগরিদম এবং রোবটের ক্ষেত্রে নিরাপত্তা সম্পর্কে সতর্ক হওয়া অত্যন্ত গুরুত্বপূর্ণ। এর মধ্যে প্রধান বিষয় হচ্ছে সিস্টেমকে তাৎক্ষনিকভাবে বন্ধ করে দেওয়ার ক্ষমতা, কারণ শক্তিবৃদ্ধি-শিখন পদ্ধতি সিস্টেমের জন্য নিয়ন্ত্রককে অগ্রাহ্য করে কোনো সংক্ষিপ্ত পথ খুঁজে বের করে ফেলার আশঙ্কা থেকেই যায়। বেশি ভালো হয় যদি একটি এআই প্রোগ্রাম ভুল করলে তা বুঝতে পারে এবং নিজে থেকেই বন্ধ হয়ে যায়।”
“কিন্তু তা সত্যিকার অর্থেই একটা বিরাট বড় বৈজ্ঞানিক চ্যালেঞ্জ”, যোগ করেন তিনি।
এ আর/ ০৯:২৬/ ১০ জুন