@saptahikbartaman
প্রযুক্তির আতঙ্ক
তাহলে কি
গুগলের আয়ু ফুরিয়ে এল?
গত
নভেম্বরে কৃত্রিম বুদ্ধিমত্তা (এআই) চ্যাটবট ‘চ্যাটজিপিটি’ বাজারে
আসার পর এমন আশঙ্কাই তাড়া করছে জি-মেল নির্মাতা পল বাখাইটকে। জনপ্রিয়তার শীর্ষে
থাকা এই চ্যাটজিপিটি এক বা দুই বছরের মধ্যে গুগলের ব্যবসা ধ্বংস করতে পারে বলে
বাখাইটের আশঙ্কা। এরই মধ্যে মাসে ১০ কোটিরও বেশি ব্যবহারকারী নিয়মিত চ্যাটজিপিটি
ব্যবহার করছেন।
পল বাখাইট
জানিয়েছেন, কৃত্রিম বুদ্ধিমত্তা (এআই) প্রযুক্তির কারণে ভবিষ্যতে সার্চ ইঞ্জিনের
রেজাল্ট পেজের (এসইআরপি) অস্তিত্বই থাকবে না। আর এখান থেকেই গুগল সবচেয়ে বেশি আয়
করে। ব্রাউজারের সার্চ বারে ব্যবহারকারী কোনও প্রশ্ন লিখলেই তা স্বয়ংক্রিয়ভাবে
জানিয়ে দেবে চ্যাটজিপিটি। শুধু তাই নয়, প্রাসঙ্গিক তথ্য ও লিঙ্কযুক্ত
করে ফলাফল সংক্ষিপ্তভাবে তুলেও ধরবে। ফলে গুগল সার্চ ইঞ্জিনের ফলাফল দেখে একাধিক
ওয়েবসাইটে প্রবেশ করতে হবে না।
চ্যাটজিপিটি
প্রোগ্রামিং ভাষা দিয়ে এমন চ্যাটবট তৈরি করা যেতে পারে যে, অনেক সময় এ
প্রান্তের ব্যবহারকারী হয়তো বুঝতেও পারবেন না, যে অপর
প্রান্তে আদতে কোনও মানুষ নেই। এই চ্যাটবটগুলি গ্রাহক পরিষেবা, ই-কমার্স এবং সোশ্যাল মিডিয়ার মতো জনপ্রিয় অ্যাপগুলিতে ব্যবহার করা যাবে।
অনলাইনভিত্তিক স্বাস্থ্য পরিষেবা ও শিক্ষার মতো আরও অ্যাপ্লিকেশনেও ব্যবহার করা
যেতে পারে চ্যাটজিপিটি। এআই প্রযুক্তিবিশেষজ্ঞ রিচার্ড ডিভের কথায়, ‘পাঁচ বছরের মধ্যে বিশ্বে কর্মশক্তির ২০ শতাংশ চ্যাটজিপিটির দখলে চলে যেতে
পারে। চ্যাটজিপিটি কোনও পাগলামি নয়। এটা প্রযুক্তির নতুন বিপ্লব।’
চ্যাটজিপিটির
প্রধান বৈশিষ্ট্য হল মানুষের মতো লেখা বা টেক্সট তৈরি করার ক্ষমতা। নির্ভুল
শব্দচয়ন ও ভাষা ব্যবহার করায় চ্যাটবটের লেখা পড়ে বোঝার উপায় নেই সেটা মানুষ না
যন্ত্র লিখেছে। ই-মেল,
স্কুল-কলেজের রচনা, নিবন্ধ কিংবা নিত্যদিনের
পারস্পরিক যোগাযোগের জন্য আমরা যা কিছু মগজ খাঁটিয়ে লিখি, তার
সবই এখন লিখে ফেলছে যন্ত্র। ‘চ্যাটজিপিটি’ নীরবে বদলে দিচ্ছে সব কিছু। কবিতা কিংবা নাটকের চিত্রনাট্য রচনার মতো
প্রতিভানির্ভর সৃষ্টিশীল কাজও এই প্রযুক্তি দখল করে নিতে পারে— এমনও গুঞ্জন শোনা যাচ্ছে। তবে তার চেয়ে আশঙ্কার বিষয় হল, চ্যাটজিপিটি গণতান্ত্রিক প্রক্রিয়ার জন্য বড় বিপদ হতে পারে। এই কৃত্রিম
বুদ্ধিমত্তা গণতন্ত্রের লড়াইয়ে মানুষের জায়গা দখল করবে। আর তা করবে ভোটার আকর্ষণের
দিক থেকে ততটা নয়, যতটা করবে লবিংয়ের দিক থেকে। এমনই মনে করছেন হার্ভার্ড
বিশ্ববিদ্যালয়ের তথ্য বিজ্ঞানী নাথান ই স্যান্ডার্স ও হার্ভার্ড কেনেডি স্কুলের
লেকচারার ব্রুস শ্নেইরের মতো বিশেষজ্ঞরা।
সম্প্রতি নিউ
ইয়র্ক টাইমসে তাঁরা লিখেছেন, চ্যাটজিপিটি স্বয়ংক্রিয়ভাবে নিয়ন্ত্রিত প্রক্রিয়ায়
কারও হয়ে স্থানীয় খবরের কাগজের সম্পাদককে ই-মেল লিখতে পারে। প্রতিদিন অনলাইন
পত্রিকায় প্রকাশিত লাখ লাখ সংবাদ কিংবা নিবন্ধের লিঙ্কে, ব্লগে এবং সোশ্যাল
মিডিয়ার পোস্টে দ্রুত মন্তব্য করতে পারে। তা করতে পারে নির্দিষ্ট অ্যাজেন্ডা ধরেই।
২০১৬ সালে মার্কিন নির্বাচনকে প্রভাবিত করতে রাশিয়ার সংস্থা রাশিয়ান ইন্টারনেট
রিসার্চ এজেন্সি কোটি কোটি ডলার খরচ করে শত শত কর্মী নিয়োগ করে যেভাবে প্রচার
চালিয়েছিল, সেই ধরনের অর্থ ও লোকবল ব্যয় না করেই চ্যাটজিপিটি
একই কাজ করতে পারে অনায়াসে। এখন কৃত্রিম বুদ্ধিমত্তা যেভাবে সক্রিয় হচ্ছে তাতে কোন
মেসেজটি আসল অর্থাৎ মানুষের পাঠানো, আর কোনটি স্বয়ংক্রিয় তা
বেছে আলাদা করাই কঠিন হয়ে পড়ছে।
চ্যাটজিপিটি
ব্যবহার করে এবার যে কারও ইনবক্স স্বয়ংক্রিয় কায়দায় ই-মেল দিয়ে ভরে ফেলা যাবে। চ্যাটজিপিটির
মতো কৃত্রিম বুদ্ধিমত্তা যন্ত্র দিয়ে বেছে বেছে টার্গেট করে করে যে কারওকে বিভ্রান্ত
করা যাবে। আমরা যখন এই কাজ করি তখন তাকে বলি ‘লবিং’ বা প্রভাব
খাটানো। নির্দিষ্ট উদ্দেশ্য পূরণের জন্য কেতাদুরস্ত ভাষায় মেসেজ লেখা ও সেগুলিকে টার্গেট
করা ব্যক্তির কাছে পৌঁছে দেওয়ার কাজের জন্য অনেক পেশাদার সংস্থা পর্যন্ত গড়ে
উঠেছে। এখন চ্যাটজিপিটি-সজ্জিত লবিস্ট প্রতিষ্ঠানগুলি ড্রোনের মতো প্রচারাস্ত্র
প্রয়োগ করবে।
এটি এমন
একটি কৃত্রিম বুদ্ধিমত্তা যা কি না রাজনৈতিক নেটওয়ার্কগুলির গতিপ্রকৃতিও বুঝতে
পারে। চ্যাটজিপিটির টেক্সচুয়াল জেনারেশন ক্ষমতা ব্যবহার করে এই সিস্টেম নেতাদের কে
কোন নীতি নির্ধারণী পর্যায়ে কতটা প্রভাবশালী, কোন নেতা করপোরেট কর নীতি আর কোন নেতা
সামরিক ব্যয় সংক্রান্ত নীতি নির্ধারণে প্রভাব খাটাতে সক্ষম— তা স্বয়ংক্রিয়ভাবে
বের করে ফেলতে পারে। একটি নেটওয়ার্কের মধ্যে থাকা নেতাদের সক্ষমতা ও প্রভাব
সম্পর্কে জানতে পারার ক্ষমতা কৃত্রিম বুদ্ধিমত্তার সবচেয়ে বড় হাতিয়ার। এটি দিয়ে
হ্যাক করা এবং অবিশ্বাস্য দ্রুততায় সামাজিক, অর্থনৈতিক ও রাজনৈতিক
অস্থিরতা তৈরি করা সম্ভব।
ভয় একটাই—
দিন যত যাবে ততই এই কৃত্রিম বুদ্ধিমত্তা প্রশিক্ষিত হবে। আর ততই গণতন্ত্র বিপদে
পড়বে!
No comments:
Post a Comment