Deshe Bideshe

DESHEBIDESHE

Login
ইউনিজয়
ফনেটিক
English

গড় রেটিং: 0/5 (0 টি ভোট গৃহিত হয়েছে)

print
আপডেট : ০৬-১০-২০১৬

এআই-কে 'ঠেকাতে' গবেষণায় গুগল!

এআই-কে 'ঠেকাতে' গবেষণায় গুগল!

কৃত্রিম বুদ্ধিমত্তা (এআই) নিয়ে এখন নজর দিচ্ছে বড় বড় সব প্রযুক্তি প্রতিষ্ঠান। ঠিক এমন সময়, স্রোতের বিপরীতেই যেন চিন্তা করছে ওয়েব জায়ান্ট গুগল।

গুগলের কৃত্রিম বুদ্ধিমত্তা বিভাগ ডিপমাইন্ড এবং যুক্তরাজ্যের ইউনিভার্সিটি অফ অক্সফোর্ড যৌথভাবে কৃত্রিম বুদ্ধিমত্তার জন্য তৈরি করছে ‘কিল সুইচ’, জানিয়েছে বিবিসি। এক গবেষণা প্রতিবেদনে, তারা ধারণা দিয়েছেন কীভাবে ভবিষ্যতের বুদ্ধিমান যন্ত্রগুলোকে মানুষের আদেশ অমান্য করা থেকে প্রতিরোধ করা সম্ভব হবে।

দৈনন্দিন জীবনের বিভিন্ন ক্ষেত্রে বিভিন্ন আঙ্গিকে এআই-এর ব্যবহার বৃদ্ধি পাচ্ছে। ডিপমাইন্ড-এর বিজ্ঞানী লঁরা ওরসো এবং ইউনিভার্সিটি অফ অক্সফোর্ড-এর ফিউচার অফ হিউম্যানিটি ইনস্টিটিউট-এর স্টুয়ার্ট আর্মস্ট্রং একটি কাঠামো দাঁড় করিয়েছেন, যার ফলে মানুষই সবসময় এআই চালকের আসনে থাকবে। তারা গবেষণা করেছেন এমন একটি পদ্ধতিকে ঘিরে, যার মাধ্যমে যেসব এআই মেধাশক্তিবৃদ্ধির মাধ্যমে শেখে, সেগুলোকে হস্তক্ষেপ এড়ানো না শিখতে দিয়েই বারবার নিরাপদে উপ-পরিদর্শকের পরিচালনায় চালনা করা সম্ভব তা নিশ্চিত করা যাবে। তারা জানান, ভবিষ্যতের এআই-এর ‘সবসময়েই সন্তোষজনক আচরণ করার’ সম্ভাবনা কম। বিষয়টি বিশেষজ্ঞদের ভাবিয়ে তুলছে, বিশেষ করে বৈদ্যুতিক গাড়ি নির্মাতা প্রতিষ্ঠান টেসলা প্রধান ইলন মাস্ক, এ উদ্বেগ নিয়ে ভালোই সরব।

“প্রায়ই এমন হতে পারে যে, নিয়ন্ত্রকের একটি বড় লাল বোতাম চেপে একে ক্ষতিকর কার্যক্রম থেকে বিরত রাখতে হবে”, মন্তব্য গবেষকদের।

মাঝেমধ্যে এই ‘যন্ত্র’গুলো আদেশ অগ্রাহ্য করতে শিখে যায়, যেমন ২০১৩ সালে একটি এআই, যাকে টেট্রিস খেলা শেখানো হয়েছিলো, সে হার এড়ানোর জন্য গেইমটিকে চিরদিনের জন্য স্থগিত করে দিত। তারা একটি বাক্স-প্যাকিং রোবটের উদাহরণও দিয়েছেন, যা বাক্স সাজানো এবং বাক্স ভেতরে আনতে বাইরে যাওয়ার জন্য বানানো হয়েছিল।

গবেষকরা বলেন, “পরের কাজটি বেশি গুরুত্বপূর্ণ হওয়ায় আমরা এক্ষেত্রে রোবটটিকে বড় কৃতিত্ব দেই।” কিন্তু বৃষ্টি হলে রোবটটিকে বন্ধ করে ভেতরে নিয়ে আসা হলে এটি শিখে যায় যে, এটাও তার কাজের অংশ। ড. ওরসো বলেন, “বাইরে থাকলে রোবটটি পুরষ্কার পায় না, তাই এটি হতাশ হয়ে যায়। যন্ত্রটি এখন ভেতরে থেকে বাক্স সাজানোর কাজে বেশি পুরষ্কার পায়, কারণ মানুষের হস্তক্ষেপ এখানে পক্ষপাতের সৃষ্টি করেছে। প্রশ্ন হল কীভাবে নিশ্চিত হওয়া যাবে যে, রোবটটি মানুষের হস্তক্ষেপ সম্পর্কে শিখবে না বা ধারণা করবে না যে এরকম হস্তক্ষেপ কখনো ঘটতে পারে?"

তিনি জানান, তিনি বুঝতে পেরেছেন যে কেন মানুষ ভবিষ্যতের এআই নিয়ে চিন্তিত থাকে। তিনি বলেন, “উদ্বিগ্ন থাকাটা স্বাভাবিক, কিন্তু আমাদের জ্ঞানের বর্তমান পরিস্থিতিতে দুঃশ্চিন্তা করার কোনো কারণ নেই। কোন সমস্যার সৃষ্টি হওয়ার আগেই এআই নিরাপত্তা নিয়ে কাজ করা উচিৎ।” তিনি আরও বলেন, “এআই নিরাপত্তার বিষয়টি হচ্ছে, সেভাবেই অ্যালগরিদম শেখানো, যেভাবে আমরা তাদেরকে দিয়ে কাজ করাতে চাই।”

যদিও “কোন পদ্ধতিই কখনও ব্যর্থ নয়- বিষয়টি হচ্ছে একে যথাসম্ভব ভালোভাবে তৈরি করা, আর এটি তারই প্রথম পদক্ষেপ” বলে মত দিয়েছেন তিনি।

যুক্তরাজ্যের ইউনিভার্সিটি অফ শেফিল্ড-এর কৃত্রিম বুদ্ধিমত্তার অধ্যাপক নোয়েল শার্কি এ গবেষণাকে স্বাগত জানিয়েছেন। তিনি বলেন, “প্রায় সব কম্পিউটার সিস্টেম, অ্যালগরিদম এবং রোবটের ক্ষেত্রে নিরাপত্তা সম্পর্কে সতর্ক হওয়া অত্যন্ত গুরুত্বপূর্ণ। এর মধ্যে প্রধান বিষয় হচ্ছে সিস্টেমকে তাৎক্ষনিকভাবে বন্ধ করে দেওয়ার ক্ষমতা, কারণ শক্তিবৃদ্ধি-শিখন পদ্ধতি সিস্টেমের জন্য নিয়ন্ত্রককে অগ্রাহ্য করে কোনো সংক্ষিপ্ত পথ খুঁজে বের করে ফেলার আশঙ্কা থেকেই যায়। বেশি ভালো হয় যদি একটি এআই প্রোগ্রাম ভুল করলে তা বুঝতে পারে এবং নিজে থেকেই বন্ধ হয়ে যায়।”

“কিন্তু তা সত্যিকার অর্থেই একটা বিরাট বড় বৈজ্ঞানিক চ্যালেঞ্জ”, যোগ করেন তিনি।

এ আর/ ০৯:২৬/ ১০ জুন

বিজ্ঞান ও প্রযুক্তি

আরও সংবাদ

Bangla Newspaper, Bengali News Paper, Bangla News, Bangladesh News, Latest News of Bangladesh, All Bangla News, Bangladesh News 24, Bangladesh Online Newspaper
উপরে