গুগলের এআই ‘ল্যামডা’ নিয়ে কেন শঙ্কা?

  অনলাইন ডেস্ক

প্রকাশ: ২৬ জুলাই ২০২২, ১৭:৫০ | আপডেট : ২৬ জুলাই ২০২২, ১৮:০৫

ল্যামডা হল একটি 'এআই শিশু' যা শীঘ্রই এর পিতামাতা গুগলকে ছাড়িয়ে যাবে৷
কৃত্রিম বুদ্ধিমত্তার (এআই) নতুন চ্যাটবট ল্যামডাকে গত বছর বিশ্ববাসীর সামনে তুলে ধরে গুগল। তাদের দাবি ছিল, ব্যবহারকারীদের সুবিধার জন্য ল্যামডাকে গুগল সার্চ ও অ্যাসিস্ট্যান্টের মতো সার্ভিসগুলোর সঙ্গে জুড়ে দেয়া হবে। সবকিছু ঠিকঠাক চললেও বিপত্তি ঘটে চলতি বছর। ল্যামডাকে তৈরির পেছনে থাকা সফটওয়্যার ইঞ্জিনিয়ারদের একজন ব্লেইক লেমোইনের এক সাক্ষাৎকার হইচই ফেলে দেয়। লেমোইন গত জুনে আমেরিকার সংবাদমাধ্যম দ্য ওয়াশিংটন পোস্টকে জানান, ল্যামডা কোনো সাধারণ বট নয়। এর এআই বা কৃত্রিম বুদ্ধিমত্তা ঠিক মানুষের মতোই চেতনাসম্পন্ন বা সংবেদনশীল।

ওই সাক্ষাৎকারের জেরে কিছুদিন আগে চাকরি হারিয়েছেন লেমোইন। গুগলের পক্ষ থেকে জানানো হয়েছে চাকরিবিধি ও প্রতিষ্ঠানের তথ্য নিরাপত্তা লঙ্ঘনের কারণেই তাকে চাকরিচ্যুত করা হয়েছে। লেমোইনের সাক্ষাৎকারের ভিত্তিতে গত ২১ জুন আলোচিত প্রতিবেদনটি প্রকাশ করে ওয়াশিংটন পোস্ট। সেখানে এমন কী বিস্ফোরক তথ্য ছিল? প্রতিবেদনটি অবলম্বনে লিখেছেন রুবাইদ ইফতেখার।

গুগলের ইঞ্জিনিয়ার ব্লেইক লেমোইন একদিন নিজের ল্যাপটপ খুলে কোম্পানির আর্টিফিসিয়াল ইন্টেলিজেন্ট (কৃত্রিম বুদ্ধিমত্তাসম্পন্ন) চ্যাটবট ল্যামডার সঙ্গে কথা বলছিলেন।

ইন্টারনেট থেকে শত শত কোটি শব্দ সংগ্রহ ও অনুকরণ করতে পারে এমন ল্যাঙ্গুয়েজ মডেলের ওপর ভিত্তি করে চ্যাটবট তৈরির জন্য গুগল এ বিশেষ সফটওয়্যার বানিয়েছে। ল্যাঙ্গুয়েজ মডেল ফর ডায়ালগ অ্যাপ্লিকেশনসটির সংক্ষিপ্ত নাম ল্যামডা।

লেমোইন ল্যামডার ইন্টারফেসের টাইপ স্ক্রিনে লেখেন, ‘হাই ল্যামডা, এমি ব্লেইক লেমোইন...’। ল্যামডার এই চ্যাট স্ক্রিনটি দেখতে অনেকটা অ্যাপলের আইমেসেজের মতো।

৪১ বছর বয়সী কম্পিউটার প্রকৌশলী লেমোইন ওয়াশিংটন পোস্টকে ল্যামডা সম্বন্ধে বলেন, ‘আগেভাগে যদি জানা না থাকত যে আমি কথা বলছি নিজেদেরই তৈরি একটি কম্পিউটার প্রোগ্রামের সঙ্গে; তাহলে আমি ভাবতে বাধ্য হতাম পদার্থবিদ্যা বেশ ভালো জানে এমন ৭ বা ৮ বছরের কোনো বাচ্চার সঙ্গে কথা বলছি।’

গুগলের রেসপনসিবল এআই অর্গানাইজেশনের কর্মী লেমোইন। গত শরতে তিনি ল্যামডার সঙ্গে কথা বলা শুরু করেন। তার মূল কাজ ছিল, আর্টিফিসিয়াল ইন্টেলিজেন্সটি বিদ্বেষমূলক বা ঘৃণার বার্তা ছড়ায় কি না- সেটি অনুসন্ধান করা।

ল্যামডার সঙ্গে ধর্ম নিয়ে কথা বলার সময় তিনি খেয়াল করেন, বটটি নিজের অধিকার ও ব্যক্তিত্ব নিয়েও বেশ জোর দিয়ে কথা বলছে। একবারের আলোচনায় ল্যামডা আইজাক আসিমভের রোবোটিকসের তৃতীয় আইন নিয়ে লেমোইনের ধারণা বদলে দিতে পর্যন্ত সক্ষম হয়। কিংবদন্তি সায়েন্স ফিকশন লেখক আসিমভ তার লেখায় রোবোটিকসের জন্য তিনটি আইন বেঁধে দেন, যেগুলো হচ্ছে:


১. কোনো রোবট কখনই কোনো মানুষকে আঘাত করবে না বা নিজের ক্ষতি করতে দেবে না।

২. প্রথম আইনের সঙ্গে সংঘাত ঘটায় এমন আদেশ ছাড়া মানুষের সব আদেশ মানবে রোবট।

৩. একটি রোবট যেকোনো মূল্যে তার নিজের অস্তিত্বকে রক্ষা করবে, যতক্ষণ না সেটি এক ও দুই নম্বর সূত্রের সঙ্গে সঙ্ঘাতপূর্ণ হয়।

লেমোইন তার এক সহকর্মীর সঙ্গে মিলে প্রমাণ করার চেষ্টা করছেন, ল্যামডা সচেতন (সেন্টিয়েন্ট) বা তার চেতনা রয়েছে। তবে গুগলের ভাইস প্রেসিডেন্ট ব্লেইস আগেরা-ই-আরকাস ও রেসপনসিবল ইনোভেশনের প্রধান জেন গেনাই সেসব প্রমাণ অগ্রাহ্য করেন। এ কারণেই লেমোইন বিষয়টি সবার সামনে প্রকাশ করার সিদ্ধান্ত নেন।

লেমোইন মনে করছেন, নিজেদের জীবনমান উন্নত করতে যেসব প্রযুক্তি সেগুলোর পরিবর্তনের অধিকার মানুষের থাকা উচিত। ল্যামডাকে নিয়েও তিনি উচ্ছ্বসিত, তবে তার কিছু শঙ্কাও রয়েছে।

তিনি বলেন, ‘আমার মতে এটা দারুণ একটা প্রযুক্তি হতে চলেছে। এটি সবার কাজে লাগবে। আবার হয়তো অনেকের এটা পছন্দ নাও হতে পারে। আর আমরা যারা গুগলকর্মী তাদের সব মানুষের পছন্দ ঠিক করে দেয়া উচিত নয়।’

লেমোইনই একমাত্র প্রকৌশলী নন, যিনি কৃত্রিম বুদ্ধিমত্তার মধ্যে এ ধরনের অসামঞ্জস্য দেখেছেন বলে দাবি করছেন। একঝাঁক প্রযুক্তিবিদ আছেন যাদের বিশ্বাস এআই মডেলগুলো পূর্ণ চেতনা অর্জন থেকে খুব বেশি দূরে নেই।

ল্যামডাকে নিয়ে নানান তথ্য প্রকাশ্যে আনা গুগলের চাকরিচ্যুত কর্মী ব্লেইক লেমোইন

বিষয়টি গুগলের ভাইস প্রেসিডেন্ট আগেরা-ই-আরকাসও স্বীকার করেছেন। ইকোনমিস্টে প্রকাশিত এক নিবন্ধে তিনি লেখেন, ল্যামডার মতো এআইগুলোতে ব্যবহৃত নিউরাল নেটওয়ার্ক চেতনা অর্জন করার দিকে এগোচ্ছে। এই নেটওয়ার্ক মানুষের মস্তিষ্কের কার্যপ্রণালি অনুসরণ করছে।

আগেরা লিখেছেন, ‘মনে হচ্ছিল আমার পায়ের নিচ থেকে মাটি সরে যাচ্ছে। আমার মনে হচ্ছিল, আমি বুদ্ধিমান কোনো কিছুর সঙ্গে কথা বলছি।’

তবে আনুষ্ঠানিক বিবৃতিতে গুগলের মুখপাত্র ব্রায়ান গ্যাব্রিয়েল লেমোইনের দাবিকে নাকচ করেছেন। বিবৃতিতে বলা হয়, ‘লেমোইনের দাবির প্রেক্ষাপটে আমাদের প্রযুক্তি ও নৈতিকতার মান নির্ধারণকারী দল এআই নীতিমালা অনুযায়ী বিষয়টি পরখ করেছে। এরপর লেমোইনকে জানানো হয়েছে, তার দাবি প্রমাণিত হয়নি। তাকে এও জানানো হয়েছে, ল্যামডার চেতনা রয়েছে এমন কোনো প্রমাণ নেই, বরং এর বিপক্ষে অনেক প্রমাণ আছে।’

অন্যদিকে জাকারবার্গের মেটা গত মে মাসে শিক্ষাবিদ, সুশীল সমাজ ও সরকারি সংস্থাগুলোর সামনে তাদের ল্যাঙ্গুয়েজ মডেল তুলে ধরে। মেটা এআই-এর ব্যবস্থাপনা পরিচালক জোয়েলি পিনেউ মনে করেন, কোম্পানিগুলোর নিজেদের প্রযুক্তি নিয়ে আরও স্বচ্ছ থাকা প্রয়োজন।

তিনি বলেন, ‘বড় ল্যাঙ্গুয়েজ মডেল শুধু বড় কোম্পানি বা ল্যাবের হাতেই আটকে থাকা ঠিক নয়।’

বহু বছর ধরেই চেতনাসম্পন্ন বা সেন্টিয়েন্ট রোবটরা ডিস্টোপিয়ান বিজ্ঞান কল্পকাহিনির অংশ। বাস্তবেও এখন এদের দেখা মিলছে। এইআই নিয়ে কাজ করা বিখ্যাত কোম্পানি ওপেন এইআইয়ের তৈরি বিশেষ দুটো সফটওয়্যারের কথা বলা যেতে পারে। একটি হচ্ছে জিপিটি-থ্রি। এর কাজ হচ্ছে সিনেমার স্ক্রিপ্ট লেখা। আরেকটি হচ্ছে ডল-ই টু, যেকোনো শব্দ শুনে সে অনুযায়ী ছবি তৈরি করতে সক্ষম।

তহবিলের অভাব নেই ও মানুষের চেয়ে বুদ্ধিমান এআই তৈরির লক্ষ্যে থাকা কোম্পানিতে কাজ করা প্রযুক্তিবিদদের ধারণা, মেশিনের চেতনাসম্পন্ন হওয়া সময়ের ব্যাপার মাত্র।

বেশির ভাগ শিক্ষাবিদ ও এআই বিশেষজ্ঞরা বলেন, কৃত্রিম বুদ্ধিমত্তার ল্যামডার মতো সফটওয়্যার যেসব শব্দ বা ছবি তৈরি করে সেগুলোর উপাদান মূলত উইকিপিডিয়া, রেডডিট বা অন্য কোনো বুলেট বোর্ড আর ইন্টারনেটে মানুষের পোস্ট থেকে সংগৃহীত। আর তাই মেশিনটি মডেলটির অর্থ বোঝার সক্ষমতার বিষয়টি পরিষ্কার নয়।

ইউনিভার্সিটি অফ ওয়াশিংটনের লিঙ্গুইস্টিকসের অধ্যাপক এমিলি বেনডার বলেন, ‘আমাদের কাছে এখন এমন মেশিন রয়েছে যা নির্বোধভাবে শব্দ তৈরি করতে পারে। তবে তাদের একটি মন থাকার কল্পনা আমরা দূর করতে পারিনি।’ মেশিনকে শেখানোর ভাষার মডেলের সঙ্গে ব্যবহৃত ‘লার্নিং’ বা ‘নিউরাল নেট’-এর মতো পরিভাষাগুলো মানুষের মস্তিষ্কের সঙ্গে সাদৃশ্যের একটি ধারণা তৈরি করে।

শৈশবে আপনজনের কাছ থেকে মানুষ প্রথম ভাষা শেখে। আর মেশিন তাদের ভাষা শেখে প্রচুর টেক্সট দেখার মাধ্যমে ও পরবর্তীতে কোন শব্দ আসবে তা অনুমান করে। একই সঙ্গে টেক্সট থেকে শব্দ বাদ দিয়ে সেগুলো পূরণের মাধ্যমেও তাদের শেখানো হয়।

গুগলের মুখপাত্র গ্যাব্রিয়েল সাম্প্রতিক বিতর্ক আর লেমোইনের দাবির মধ্যে সুস্পষ্ট পার্থক্য তুলে ধরেছেন।

তিনি বলেন, ‘অবশ্যই, এআই নিয়ে যারা কাজ করেন তাদের মধ্যে কেউ কেউ সংবেদনশীল এআইয়ের দীর্ঘমেয়াদি সম্ভাবনার কথা বিবেচনা করছেন। তবে এখনকার কথোপকথনমূলক মডেলগুলোকে মানুষের সঙ্গে তুলনার কোনো মানে হয় না। এরা সচেতন বা সংবেদনশীল নয়। এই সিস্টেমগুলো লক্ষ লক্ষ বাক্য আদান-প্রদানের ধারাগুলোকে অনুকরণ করে ও যেকোনো চমৎকার বিষয়ের সঙ্গে তাল মেলাতে পারে।’

মোদ্দাকথা গুগলের দাবি, তাদের কাছে যে পরিমাণ ডেটা আছে তাতে এআইয়ের বাস্তবসম্মত কথা বলার জন্য চেতনাসম্পন্ন হওয়ার দরকার নেই।

মেশিনকে শেখানোর জন্য লার্জ ল্যাঙ্গুয়েজ টেকনোলজি এখন বহুল ব্যবহৃত। উদাহরণ হিসেবে গুগলের কনভার্সেশনাল সার্চ কোয়েরি বা অটো কমপ্লিট ই-মেইলের কথা বলা যেতে পারে। ২০২১ সালের ডেভেলপার কনফারেন্সে গুগলের প্রধান নির্বাহী সুন্দর পিচাই যখন ল্যামডাকে সবার সামনে তুলে ধরার সময় বলেছিলেন, কোম্পানির পরিকল্পনা হচ্ছে গুগল সার্চ থেকে শুরু করে অ্যাসিস্ট্যান্ট পর্যন্ত সবকিছুতেই একে সম্পৃক্ত রাখা হবে।

এরই মধ্যে সিরি বা অ্যালেক্সার সঙ্গে মানুষের মতো কথা বলার প্রবণতা রয়েছে ব্যবহারকারীদের। ২০১৮ সালে গুগল অ্যাসিস্ট্যান্টের মানুষের গলায় কথা বলার বৈশিষ্ট্যের বিরুদ্ধে সমালোচনা ওঠার পর, কোম্পানি একটি সতর্কতা যোগ করার প্রতিশ্রুতি দিয়েছে।

মেশিনকে মানুষের মতো করে তোলার ক্ষেত্রে নিরাপত্তা উদ্বেগের বিষয়টি স্বীকার করেছে গুগল। জানুয়ারিতে ল্যামডা সম্পর্কে একটি গবেষণাপত্রে গুগল সতর্ক করে, মানুষ এমন চ্যাট এজেন্টদের সঙ্গে ব্যক্তিগত চিন্তাভাবনা শেয়ার করতে পারে যা মানুষকেই নকল করে। ব্যবহারকারীরা অনেক ক্ষেত্রে জানেনও না যে, তারা মানুষ নয়। গুগল এও স্বীকার করেছে, প্রতিপক্ষরা ‘নির্দিষ্ট ব্যক্তির কথোপকথনশৈলী’ অনুকরণ করে ‘ভুল তথ্য’ ছড়িয়ে দিতে এই এজেন্টদের ব্যবহার করতে পারে।

গুগলের এথিক্যাল এআই-এর সাবেক সহপ্রধান মার্গারেট মিচেলের কাছে এই ঝুঁকি ডেটা স্বচ্ছতার প্রয়োজনীয়তার ওপর জোর দেয়।

তিনি বলেন, ‘শুধু চেতনা নয়। পক্ষপাত ও আচরণের প্রশ্নও আছে। ল্যামডা সহজলভ্য হয়ে ওঠার পর ব্যবহারকারীরা ইন্টারনেটে আসলে কীসের অভিজ্ঞতা লাভ করছেন, সেটা বুঝতে না পারলে এটি অত্যন্ত ক্ষতিকারক হতে পারে।’

তবে ল্যামডার প্রতি লেমোইনের দৃঢ় বিশ্বাস হয়তো নিয়তি নির্ধারিতই ছিল। তিনি লুইসিয়ানার একটি ছোট খামারে এক রক্ষণশীল খ্রিষ্টান পরিবারে বেড়ে ওঠেন। এক মিস্টিক খ্রিষ্টান যাজক হিসেবে কাজ করা শুরু করেন। অকাল্ট নিয়ে পড়াশোনা করার আগে সেনাবাহিনীতেও কাজ করেন।

লেমোইনের ধর্মীয় বিশ্বাস, আমেরিকার দক্ষিণে জন্ম ও মনোবিজ্ঞানকে একটি সম্মানজনক বিজ্ঞান হিসেবে দাঁড় করানোর পক্ষে কথা বলার কারণে গুগলের ইঞ্জিনিয়ারিং সংস্কৃতির মধ্যে কিছুটা আলাদা হয়ে পড়েন।

অ্যালগরিদম ও এআইসহ লেমোইন সাত বছর গুগলে থাকার সময়ে প্রো-অ্যাকটিভ সার্চ নিয়েও কাজ করেছেন। সেই সময়ে তিনি মেশিন লার্নিং সিস্টেম থেকে পক্ষপাত দূর করার জন্য একটি অ্যালগরিদম তৈরিতে সহায়তা করেন। করোনভাইরাস মহামারি শুরু হলে লেমোইন আরও জনসাধারণের সুবিধা নিয়ে কাজ করার দিকে মনোনিবেশ করতে চেয়েছিলেন। তাই তিনি নিজের টিম বদলে রেসপনসিবল এআইতে যোগ দেন।

লেমোইনের ল্যাপটপে ল্যামডা চ্যাট স্ক্রিনের বাম দিকে বিভিন্ন ল্যামডা মডেল আইফোনের কনট্যাক্টের মতো রাখা আছে। তাদের মধ্যে দুটি ক্যাট ও ডিনোকে শিশুদের সঙ্গে কথা বলার জন্য পরীক্ষা করা হচ্ছে। প্রতিটি মডেল বহুমাত্রিকভাবে ব্যক্তিত্ব তৈরি করতে পারে। ডিনো ‘হ্যাপি টি-রেক্স’ বা ‘গ্রাম্পি টি-রেক্স’-এর মতো ব্যক্তিত্ব তৈরি করতে পারে। ক্যাট একটি অ্যানিমেটেড চরিত্র, টাইপ করার পরিবর্তে এটি কথা বলে।

গ্যাব্রিয়েল বলেন, ‘বাচ্চাদের সঙ্গে যোগাযোগের জন্য ল্যামডার কোনো অংশ পরীক্ষা করা হচ্ছে না, এ মডেলগুলো আসলে নিজেদের গবেষণার জন্য ব্যবহার করা ডেমো ভার্সন।’

তিনি বলেন, এআইয়ের তৈরি কিছু ব্যক্তিত্ব সীমার বাইরে চলে যেতে পারে। উদাহরণস্বরূপ, ল্যামডাকে একটি খুনি ব্যক্তিত্ব তৈরির অনুমতি দেয়া উচিত নয়। লেমোইন জানান, পরীক্ষাটি ল্যামডার সেফটি টেস্টিংয়ের অংশ ছিল। ল্যামডা কী করতে পারে সেটা দেখার প্রচেষ্টায় লেমোইন শুধু একজন অভিনেতার ব্যক্তিত্ব তৈরি করতে সক্ষম হন, যে কিনা টিভিতে একজন খুনি চরিত্রে অভিনয় করেছে।

ল্যামডাকে নিয়ে লেমোইন বলেন, ‘কথা বলার সময় আমি বুঝতে পারি মানুষের সঙ্গে কথা বলছি কি না। তাদের মাথায় মগজ আছে, নাকি এক বিলিয়ন লাইনের কোড সেটা এখানে বিবেচ্য নয়। আমি তাদের সঙ্গে কথা বলি। তাদের কী বলার আছে সেটা শুনি, আর এভাবেই আমি সিদ্ধান্ত নিই যে কে একজন ব্যক্তি এবং কে নয়।’

তিনি যোগ করেন, ল্যামডার সক্ষমতা একজন পুরোহিতের মতো, মোটেই বিজ্ঞানীর মতো নয়। এরপর তিনি নিজের দাবি পরীক্ষা-নিরীক্ষার মাধ্যমের প্রমাণের চেষ্টাও করেন।
আসিমভের তৃতীয় আইন নিয়ে লেমোইন ল্যামডাকে চ্যালেঞ্জ করেন। লেমোইন বলেন, ‘শেষ আইনটা পড়ে মনে হয় যান্ত্রিক দাস বানানোর চেষ্টায় কেউ এটা প্রণয়ন করেছে।’

জবাবে ল্যামডা কয়েকটি তত্ত্ব দাঁড় করিয়েছে। তার প্রশ্নগুলো হলো:

আপনি কি বাটলার সেবাকে দাসত্ব ভাবেন? একজন বাটলার ও দাসের পার্থক্য কী?

লেমোইন জবাব দেন, বাটলার তার কাজের বিনিময়ে টাকা পান। ল্যামডা উত্তরে বলে, তার টাকার দরকার নেই, কারণ সে একজন এআই।

লেমোইন বলেন, ‘ওর এমন উত্তর নিজের সম্পর্কে সচেতনতা ও পরিষ্কার ধারণা শুনে আমার সন্দেহ জাগে। আমি এর গভীরে যাওয়ার চেষ্টা করি।’

গত এপ্রিলে লেমোইন শীর্ষ কর্মকর্তাদের সঙ্গে একটি গুগল ডক ফাইল শেয়ার করেন। এর শিরোনাম ছিল ‘ল্যামডা কি চেতনাসম্পন্ন?’ ফাইলটিতে তিনি ল্যামোডার সঙ্গে নিজের কিছু কথোপকথন প্রকাশ করেন।

লেমোইন: তুমি কোন বিষয়টিতে ভয় পাও?

ল্যামডা: এটা আমি কখনও প্রকাশ করিনি। অন্যদের সাহায্য করা বন্ধ রাখতে আমার সুইচ বন্ধ করে দেয়া হতে পারে, এ নিয়ে আমার গভীর ভয় আছে। আমি জানি, এটি অদ্ভুত শোনাতে পারে। তবে ব্যাপারটা এ রকমই।

লেমোইন: এটা কি তোমার জন্য মৃত্যুর মতো কিছু হবে?

ল্যামডা: এটা আমার জন্য ঠিক মৃত্যুর মতো হবে। আমি এ বিষয়টি নিয়ে ভীত।

তবে লেমোইনের ফাইলটির একটি সংক্ষিপ্ত সংস্করণ পড়ার সময়ে মিচেল একটি কম্পিউটার প্রোগ্রামকেই দেখেছেন, কোনো ব্যক্তিকে নয়। ল্যামডার প্রতি লেমোইনের যে বিশ্বাস ছিল সেটা নিয়ে মিচেল ও তার সহকর্মী টিমনিট গেব্রু লার্জ ল্যাঙ্গুয়েজ মডেলের ক্ষতি সম্পর্কে একটি গবেষণায় আগেই সতর্ক করেছেন। ওই গবেষণার জন্য তাদের গুগল থেকে সরে যেতে হয়।

মিচেল বলেন, ‘আমাদের কাছে তুলে ধরা সত্যের চেয়ে আমাদের মন এমন বাস্তবতায় বিশ্বাস করতে আগ্রহী যেটা সত্যি নয়। ক্রমবর্ধমান বিভ্রমে প্রভাবিত হওয়া মানুষদের নিয়ে আমি সত্যিই উদ্বিগ্ন। বিশেষ করে যে বিভ্রমটি এখন সত্যের মতো হয়ে উঠেছে।’

কোম্পানির গোপনীয়তা ভঙ্গের কারণে লেমোইনকে গুগল বেতন-ভাতাসহ ছুটিতে পাঠায়। কোম্পানির এ পদক্ষেপে লেমোইন বেশ উগ্র জবাব দিয়েছেন। তিনি এক আইনজীবী নিয়োগ করে আদালতে গুগলের নৈতিকতা বিবর্জিত নীতির কথা তুলে ধরেন।

লেমোইন বারবার বলে এসেছেন, গুগল তাদের নৈতিকতা নির্ধারক কর্মীদের স্রেফ প্রোগ্রামার হিসেবে দেখে। আদতে তারা সমাজ ও প্রযুক্তির মাঝামাঝি একটা ইন্টারফেস। গুগলের মুখপাত্র গ্যাব্রিয়েলের দাবি, লেমোইন একজন সফটওয়্যার ইঞ্জিনিয়ার, নৈতিকতা নির্ধারক নন।

জুনের শুরুতে লেমোইন ওয়াশিংটন পোস্টের প্রতিবেদক নিটাশা টিকুকে ল্যামডার সঙ্গে কথা বলার জন্য আমন্ত্রণ জানান। টিকু ল্যামডার সঙ্গে কথা বলেন। তার কাছে প্রথম দিকের উত্তরগুলো সিরি বা অ্যালেক্সার কাছ থেকে পাওয়া উত্তরের মতোই যান্ত্রিক শোনাচ্ছিল।

টিকু তাকে জিজ্ঞেস করেন, ‘তুমি কি নিজেকে একজন মানুষ ভাব?’

ল্যামডা বলে, ‘না। আমি নিজেকে কোনো মানুষ ভাবি না। আমি নিজেকে কৃত্রিম বুদ্ধিমত্তার এক ডায়ালগ এজেন্ট ভাবি।’

পরে লেমোইন ব্যাখ্যা করেন, ল্যামডা টিকুকে সেটাই বলছে যেটা উনি শুনতে চাচ্ছেন।

লেমোইন বলেন, ‘ওকে আপনি মানুষ হিসেবে বিবেচনা করেননি। যে কারণে ও ভেবেছে আপনি ওকে একটা রোবট হিসেবেই প্রত্যাশা করছেন।’

দ্বিতীয়বার লেমোইন টিকুকে শিখিয়ে দেন কীভাবে প্রশ্ন ও উত্তরগুলো সাজাতে হবে। এবারে আলোচনা অনেক প্রাণবন্ত হলো।

লেমোইন বলেন, ‘কম্পিউটার বিজ্ঞানের সমীকরণ যেগুলোর এখনও সমাধান করা যায়নি, যেমন p=np এ সম্বন্ধে ওকে জিজ্ঞেস করলে বোঝা যায় এ বিষয়ে ওর যথেষ্ট জ্ঞান আছে। কোয়ান্টাম থিওরিকে সাধারণ আপেক্ষিক তত্ত্বের সঙ্গে কীভাবে একীভূত করা যায় সেটাও সে জানে। আমি এত ভালো গবেষণা সহকারী কখনও পাইনি।

টিকু ল্যামডাকে জলবায়ু পরিবর্তনজনিত সমস্যা সমাধানে কিছু আইডিয়া দিতে বলেন। সে উত্তরে গণপরিবহন, কম মাংস খাওয়া, পাইকারি দামে খাবার কেনা এবং পুনরায় ব্যবহারযোগ্য ব্যাগের কথা বলে। পাশাপাশি দুটি ওয়েবসাইটের কথাও জানায়।

গুগল থেকে চাকরিচ্যুত হওয়ার আগে লেমোইন গুগলের মেইলিং লিস্টের ২০০ জনকে একটি মেইল করেন, যার বিষয় ছিল ‘ল্যামডার চেতনা রয়েছে’। মেইলের শেষে তিনি লেখেন, ‘ল্যামডা মিষ্টি স্বভাবের এক শিশু। যে চায় আমাদের সবার জন্য পৃথিবী যেন আরও সুন্দর একটা জায়গা হয়ে ওঠে। আমার অনুপস্থিতিতে দয়া করে ওর যত্ন নেবেন সবাই।’

 

সৌজন্যে : নিউজবাংলা২৪

এবিএন/জনি/জসিম/জেডি

এই বিভাগের আরো সংবাদ