adimage

২০ অক্টোবর ২০১৮
বিকাল ০৭:৩৬, শনিবার

কৃত্রিম বুদ্ধিমত্তা নিয়ে এতো ভয় কিসের

আপডেট  07:26 PM, ফেব্রুয়ারী ২১ ২০১৮   Posted in : বিজ্ঞান ও প্রযুক্তি     

কৃত্রিমবুদ্ধিমত্তানিয়েএতোভয়কিসের

নিউজ৬৯বিডি ডেস্ক : ড্রোন পরিণত হতে পারে ক্ষেপণাস্ত্রে, ফেক বা ভুয়া ভিডিও দিয়ে বিভ্রান্ত করা হতে পারে জনমত, হতে পারে হ্যাকিং-এর মতো ঘটনাও- আর এর সবই হতে পারে কৃত্রিম বুদ্ধিমত্তার সাহায্যে, যদি সেটা চলে যায় ভুল জায়গা বা খারাপ মানুষের হাতে।

ড্রোন কিম্বা রোবট দিয়ে সুনির্দিষ্ট ব্যক্তি কিম্বা এলাকায় চালানো হতে পারে সন্ত্রাসী হামলা, চালকবিহীন গাড়ি ছিনতাই করে সেটিকে নিক্ষিপ্ত করা হতে পারে দুর্ঘটনায়।

আর্টিফিশিয়াল ইন্টেলিজেন্স বা কৃত্রিম বুদ্ধিমত্তা সংক্ষেপে এ আই-এর উপর একটি প্রতিবেদনে এই আশঙ্কা প্রকাশ করছেন আন্তর্জাতিক নিরাপত্তা বিশেষজ্ঞরা।

তারা হুঁশিয়ার করে দিয়ে বলছেন, এই প্রযুক্তি যদি ভ্রষ্ট-নীতির কোনো রাষ্ট্র, যারা আন্তর্জাতিক আইন কানুনের তোয়াক্কা করে না, তাদের কাছে কিম্বা অপরাধীসহ সন্ত্রাসীদের হাতে চলে যায় তাহলে তার বড় ধরনের অপব্যবহার হতে পারে।

আর একারণে এই কৃত্রিম বুদ্ধিমত্তা যখন তৈরি করা হচ্ছে তখন এর উদ্ভাবকদের একই সাথে এমন জিনিসও তৈরি করতে হবে যাতে এর অপব্যবহার না হয়, আর হলেও সেটা মোকাবেলা করা যায়- বলছেন গবেষকরা।

এই লক্ষ্যে ২৬ জন গবেষকের একটি দল নতুন কিছু আইন কানুন তৈরি করার উপরেও জোর দিচ্ছেন।

তারা বলছেন:

নীতি-নির্ধারক ও প্রযুক্তিবিদ ও গবেষকদের এক সাথে কাজ করতে হবে কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির অপব্যবহার সম্পর্কে ধারণা পেতে এবং সেটা মোকাবেলা করতে।

কৃত্রিম বুদ্ধিমত্তার যে শুধু ভালো প্রয়োগ নেই, এটিকে খারাপ কাজেও প্রয়োগ করা হতে পারে, সেটি উপলব্ধি করতে হবে। এই বিষয়টিকে মাথায় রেখেই গবেষক ও প্রকৌশলীদেরকে কৃত্রিম বুদ্ধিমত্তা তৈরিতে কাজ করতে হবে।

কম্পিউটার নিরাপত্তার মতো বিষয়, যেখানে ভালো ও খারাপ দুটো দিকই আছে, সেটা থেকে শিক্ষা নিতে হবে।

কৃত্রিম বুদ্ধিমত্তার অপব্যবহার বন্ধ ও প্রতিরোধের লক্ষ্যে সব পক্ষকে একসাথে সক্রিয় হতে হবে।

যুক্তরাজ্যে ক্যামব্রিজ বিশ্ববিদ্যালয়ের শাহার আভিন বলেন, এই প্রতিবেদনটিতে বর্তমানে যেসব কৃত্রিম বুদ্ধিমত্তার প্রযুক্তি আছে কিম্বা আগামী পাঁচ বছরে আরো যেসব প্রযুক্তি বাজারে আসতে পারে সেগুলোর ঝুঁকি তুলে ধরা হয়েছে। এতে খুব বেশি দূরের ভবিষ্যতের কৃত্রিম বুদ্ধিমত্তার উপর আলোকপাত করা হয়নি।

প্রতিবেদনটিতে বিশেষ করে যে বিষয়ে উদ্বেগ প্রকাশ করা হয়েছে সেটা হলো, কৃত্রিম বুদ্ধিমত্তাকে যখন অতিমানবীয় পর্যায়ে নিয়ে যাওয়া হচ্ছে এবং যেখানে কোনো দিক নির্দেশনা নেই।

একারণে কৃত্রিম বুদ্ধিমত্তা অদূর ভবিষ্যতে কিভাবে ভয়ংকর হয়ে উঠতে পারে তার কিছু উদাহরণ তিনি তুলে ধরেছেন:

আলফাগোর মতো প্রযুক্তি- গুগল ডিপমাইন্ড কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তিটি উদ্ভাবন করেছে। এটি এতো চালাক যে মানুষের বুদ্ধিকেও সে পরাস্ত করতে পারে। এই প্রযুক্তি হ্যাকারদের হাতে পড়লে তথ্য চুরি হওয়ার আশঙ্কা রয়েছে।

কোনো বিদ্বেষপরায়ণ কোনো ব্যক্তি ড্রোন কিনে সেটিকে মানুষের মুখ চেনার জন্যে প্রশিক্ষিত করে তুলতে পারে এবং তারপর পারে কোনো ব্যক্তিকে চিহ্নিত করে তার উপর আক্রমণ চালাতে।

ভুয়া ভিডিও তৈরি করে তার রাজনৈতিক অপব্যবহার হতে পারে।

স্পিচ সিনথেসিসের মাধ্যমে হ্যাকাররা অন্যের গলাও নকল করতে পারে।

অক্সফোর্ড বিশ্ববিদ্যালয়ে ফিউচার অফ হিউম্যানিটি ইন্সটিটিউটের মাইলস ব্রান্ডেজ বলেছেন, মানুষের, প্রতিষ্ঠানের ও রাষ্ট্রের নিরাপত্তাহীনতার ঝুঁকির চিত্র বদলে দেবে এই কৃত্রিম বুদ্ধিমত্তা। দুর্বৃত্তরা এই প্রযুক্তি ব্যবহার করতে পারে হ্যাক করার উদ্দেশ্যে, মানুষের গোপনীয়তায় হস্তক্ষেপ করা হতে পারে- নিরাপত্তার ব্যাপারে সব ধরনের ঝুঁকিই এখানে আছে।

তিনি বলেন, বেশিরভাগ কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রেই দেখা গেছে এই প্রযুক্তি যে শুধু মানুষের বুদ্ধির পর্যায়ে চলে যায় তা নয়, অনেক ক্ষেত্রে এটা মানুষের বুদ্ধির সীমাকেও ছাড়িয়ে যায়।

এ আই-এর উপর তৈরি এই প্রতিবেদনটিতে দেখা হয়েছে আগামী ১০ বছরে পৃথিবীর চেহারা কেমন হতে পারে?

এই গবেষণা প্রতিবেদনের লেখকরা বলছেন, কৃত্রিম বুদ্ধিমত্তা সবকিছু বদলে দিচ্ছে। আমরা এমন এক বিশ্বে বাস করছি যা কিনা কৃত্রিম বৃদ্ধিমত্তার অপব্যবহারের কার দিনে দিনে আরো বেশি ঝুঁকিপূর্ণ হয়ে উঠতে পারে।

১০০ পাতার এই রিপোর্টে তিনটি এলাকা চিহ্নিত করা হয়েছে- ডিজিটাল, শারীরিক ও রাজনৈতিক - এগুলোতেই কৃত্রিম বুদ্ধিমত্তার অপ্রয়োগ হতে পারে। -বিবিসি

সর্বাধিক পঠিত

Comments

এই পেইজের আরও খবর

মোবাইল অ্যাপ ডাউনলোড করুন

nazrul