অতি-বুদ্ধিমান সুপার এআই’কে নিয়ন্ত্রণ অসম্ভব, করতে পারে সভ্যতার অন্ত: গবেষণা
কৃত্রিম বুদ্ধিমত্তা বা এআইকে বলা হচ্ছে– চতুর্থ শিল্প বিপ্লবের অপার সম্ভাবনার এক প্রযুক্তি। সম্ভাবনা অগুনতি থাকার পরও এটি নিয়ে উদ্বেগ ও সংশয় দীর্ঘদিনের। তারই প্রতিফলন দেখা যায়, 'টার্মিনেটর' সিরিজের চলচ্চিত্র থেকে শুরু করে কল্পবিজ্ঞান কাহিনিসহ জনপ্রিয় অধুনা শিল্প-সাহিত্যে।
কল্পবিজ্ঞান আমাদের বলেছে, কৃত্রিম বুদ্ধিমত্তা একদিন নেবে পৃথিবীর দখল। আর তার স্রষ্টা মানুষকে একদিন দাসে পরিণত করবে নাহলে নিশ্চিহ্ন করে দেবে। কিন্তু, এক যুগে যা কল্পবিজ্ঞান– তাই আরেক যুগে বাস্তবতা। মানব সভ্যতার বহু আবিষ্কারের ক্ষেত্রেই তা ঘটেছে।
তা ছাড়া, আধুনিক যুগে যখন চলছে রাষ্ট্রে রাষ্ট্রে উন্নততর এআই তৈরির প্রতিযোগিতা– তখন এই আশঙ্কা উড়িয়ে দেওয়াও যায় না।
বিজ্ঞানীরাও দীর্ঘদিন ধরে 'সুপার ইন্টেলিজেন্ট' স্তরের এআইকে নিয়ন্ত্রণ করা যাবে কিনা- তা নিয়ে অনুসন্ধান চালাচ্ছেন। আর তারাও একমত হয়েই বলছেন, এমন বিকশিত ভার্চুয়াল সত্ত্বা মানুষের নিয়ন্ত্রণে থাকবে- সে সম্ভাবনা খুবই ক্ষীণ।
এখানে মূল বিষয়টা হলো–মানুষের বোধগম্যতার চেয়ে বহুগুণে শক্তিশালী অতি-বুদ্ধিমত্তা কী কী করতে পারে– তা জানার একমাত্র উপায় হলো সিম্যুলেশন। সিম্যুলেশন ভিন্ন ভিন্ন পরিস্থিতির আভাস দেয়, কিন্তু আমরা যদি কোনো ভার্চুয়াল সত্ত্বার জ্ঞানের গভীরতা সম্পর্কেই না জানি– তাহলে সে অনুসারে সিম্যুলেশনও বানাতে পারব না। এক কথায় তা করাও অসম্ভব।
মানবজাতির জন্য হুমকি সৃষ্টি করবে এমন কিছু করা যাবে না, এমন শর্ত বেঁধে দেওয়া হয় এআই-গুলির ওপর। ভবিষ্যতেও হয়তো তা করা হবে। কিন্তু, সেজন্য কোন ধরনের সীমাবদ্ধতা আরোপ করতে হবে– সেটি জানা থাকতে হয়। অথচ, অতি-বুদ্ধিমান এআই কোন কোন ধরনের পরিস্থিতি তৈরি করে সে শর্ত পাশ কাটাতে পারবে–তা আমরা ধারণাও করতে পারব না।
সাম্প্রতিক এক গবেষণাপত্রে এমনটাই জানিয়েছেন বিজ্ঞানীরা। তারা বলছেন, কোনো কম্পিউটার সিস্টেম যদি আমাদের এটিকে নিয়ন্ত্রণে রাখার মতো প্রোগ্রামগুলির সক্ষমতার বাইরে গিয়ে কাজ করে, তখন মানুষ নিতান্তই অসহায়। এর ওপর তখন আমরা সীমাও আরোপ করতে পারব না।
নিবন্ধটি প্রকাশিত হয়েছে, জার্নাল অভ আর্টিফিসিয়াল ইন্টেলিজেন্স রিসার্চে।
গবেষকরা লিখেছেন, 'রোবট এথিক্স– নামক যে বিষয়ের আওতায় সাধারণ এআই নিয়ে গবেষণা করা হয়, সুপার-ইন্টেলিজেন্স নিয়ে তেমন প্রচেষ্টা হবে তার চেয়ে সম্পূর্ণ আলাদা, আর অসম্ভবও'।
এর কারণ সম্পর্কে তারা লিখেছেন, 'সুপার-ইন্টেলিজেন্স আদতে হবে বহুমুখী বিচার-বিশ্লেষণে পারঙ্গম, ফলে (নিজ লক্ষ্য অর্জনে) নানাবিধ সুযোগ তৈরি করতে পারা তারপক্ষে অসম্ভব নয়। সে বহু ধরনের সম্পদ কাজে লাগিয়ে অতি-জটিল ও সূক্ষ্ম প্রক্রিয়ায় নিজ উদ্দেশ্য পূরণ করবে; যা নিয়ন্ত্রণ দূরে থাক, কল্পনাও করতে পারবে না মানুষ'।
১৯৩৬ সালে ব্রিটিশ গণিতজ্ঞ অ্যালান টুরিং 'হল্টিং প্রবলেম' নামক একটি সমস্যার কথা বলেছেন যান্ত্রিক গণনার সম্পর্কে। সেখান থেকেই এ সম্ভাবনাটি নির্ধারণের যোগসূত্রটি নেয় গবেষক দলটি।
অ্যালান টুরিং- এর বলা সমস্যা বা ধাঁধার কেন্দ্রে ছিল- কোনো কম্পিউটার প্রোগ্রাম সমস্যার সমাধানে যদি পৌঁছাতে না পারে, তাহলে কি থেমে যাবে? নাকি সমাধান খোঁজার চেষ্টা বারবার চেষ্টা করতেই থাকবে?
তিনি অবশ্য গণিতের সাহায্যে প্রমাণ করে গেছেন যে, কিছু নির্দিষ্ট প্রোগ্রামের ক্ষেত্রে এটি সত্যি হতে পারে। কিন্তু, ভবিষ্যতে যত ধরনের প্রোগ্রাম লেখা হবে- তার সবকটির ক্ষমতা মানুষের পক্ষে বুঝে ওঠা সম্ভব হবে না। আর সেখানেই যোগসূত্র আছে এআই নিয়ে।
বিশেষত, অতি-বুদ্ধিমান এআই যেকোনো উপায়ে করতে চাইবে তাকে দেওয়া সমস্যার সমাধান, আর সেজন্য সে প্রয়োজনে আজ পর্যন্ত যত রকমের কম্পিউটার প্রোগ্রাম রয়েছে– সুযোগ পেলে তার সবকটিকে ব্যবহার করবে।
তাই এ ধরনের এআইকে থামাতে যত ধরনের কম্পিউটার প্রোগ্রামই থাকুক– সেগুলি তাকে পৃথিবী বা মানবজাতিকে ধ্বংস করা থেকে বিরত রাখতে পারবে না। আর গাণিতিকভাবে সেটি অসাধ্যও নয়। অবশ্য এটাও প্রমাণ করা যায় না যে, অতি-বুদ্ধিমান এআইকে মানুষ নিয়ন্ত্রণ একদিন করতেও পারবে কিনা।
গবেষণায় জড়িত বিজ্ঞানীদের একজন এবং জার্মানির ম্যাক্স প্ল্যাঙ্ক ইনস্টিটিউট ফর হিউম্যান ডেভেলপমেন্টের কম্পিউটার বিজ্ঞানী ইয়াদ রাহওয়ান মনে করেন, 'সুপার এআই নিয়ন্ত্রণে অ্যালগরিদম ব্যবহার করা যাবে না'।
এর বিকল্প হতে পারে এআইকে নীতিশাস্ত্র শিক্ষাদান, যাতে সে পৃথিবীতে বিনাশ না ডেকে আনে। আর এটা করার সক্ষমতা কোনো অ্যালগরিদমের নেই বলেই জানাচ্ছেন গবেষকরা। সেক্ষেত্রে তারা সুপার ইন্টেলিজেন্স এর ক্ষমতা সীমিত রাখার পক্ষেই মত দিয়েছেন। যেমন স্পর্শকাতর ও গোপনীয় অনেক নেটওয়ার্ক থেকে এটিকে বিচ্ছিন্ন রাখার মাধ্যমে তা করা যেতে পারে। মানব সভ্যতার নিরাপত্তার জন্যই ইন্টারনেটের অনেক অংশ থেকেও এটিকে বিচ্ছিন্ন রাখা জরুরী বলছেন তারা।
- সূত্র: সায়েন্স এলার্ট