কিভাবে মানুষ একটি কৃত্রিম বুদ্ধিমত্তার বিরুদ্ধে রক্ষা করবে: কৃত্রিম বুদ্ধিমত্তার ভবিষ্যত P5

ইমেজ ক্রেডিট: কোয়ান্টামরুন

কিভাবে মানুষ একটি কৃত্রিম বুদ্ধিমত্তার বিরুদ্ধে রক্ষা করবে: কৃত্রিম বুদ্ধিমত্তার ভবিষ্যত P5

    সালটি 65,000 BCE, এবং একটি হিসাবে Thylacoleo, আপনি এবং আপনার ধরনের প্রাচীন অস্ট্রেলিয়ার মহান শিকারী ছিল. আপনি অবাধে জমিতে বিচরণ করেছেন এবং আপনার পাশের জমি দখলকারী সহ শিকারী এবং শিকারের সাথে ভারসাম্যপূর্ণ জীবনযাপন করেছেন। ঋতু পরিবর্তন এনেছে, কিন্তু যতদিন আপনি এবং আপনার পূর্বপুরুষেরা মনে রাখতে পারেন ততক্ষণ পর্যন্ত প্রাণীজগতে আপনার অবস্থান প্রতিদ্বন্দ্বিতাহীন ছিল। তারপর একদিন, নতুনরা হাজির।

    গুজব রয়েছে যে তারা দৈত্য জলের প্রাচীর থেকে এসেছে, তবে এই প্রাণীগুলি ভূমিতে বসবাস করতে আরও আরামদায়ক বলে মনে হয়েছিল। আপনাকে নিজের জন্য এই প্রাণীগুলি দেখতে হয়েছিল।

    এটি কয়েক দিন সময় নিয়েছিল, কিন্তু আপনি অবশেষে উপকূলে পৌঁছেছেন। আকাশে আগুন জ্বলছিল, এই প্রাণীগুলির উপর গুপ্তচরবৃত্তি করার জন্য একটি উপযুক্ত সময়, সম্ভবত তাদের স্বাদ কেমন তা দেখতে একটি খাওয়ার চেষ্টা করুন।

    আপনি একটি স্পট.

    এটি দুই পায়ে হেঁটে যেত এবং এর কোনো পশম ছিল না। দুর্বল লাগছিল। প্রভাবহীন। এটি রাজ্যের মধ্যে যে ভয়ের কারণ ছিল তা খুব কমই মূল্যবান।

    রাতের আলোকে তাড়া করার সাথে সাথে আপনি সাবধানে আপনার পন্থা তৈরি করতে শুরু করেন। আপনি কাছাকাছি পেয়ে যাচ্ছেন. তারপর আপনি জমে. বিকট আওয়াজ বেজে ওঠে এবং তারপর তাদের মধ্যে আরও চারজন এর পিছনে জঙ্গল থেকে বেরিয়ে আসে। সেখানে কত সংখ্যক?

    প্রাণীটি অন্যদের অনুসরণ করে ট্রিলাইনে, এবং আপনি অনুসরণ করেন। এবং আপনি যত বেশি করবেন, তত বেশি অদ্ভুত শব্দ শুনতে পাবেন যতক্ষণ না আপনি এই প্রাণীগুলির আরও বেশি খুঁজে পান। আপনি দূরত্বে অনুসরণ করেন যখন তারা বন থেকে তীরে একটি ক্লিয়ারিংয়ে বেরিয়ে আসে। তাদের অনেক আছে. কিন্তু আরও গুরুত্বপূর্ণ, তারা সবাই শান্তভাবে আগুনের চারপাশে বসে আছে।

    আপনি আগে এই আগুন দেখেছেন. গরমের সময় আকাশের আগুন মাঝে মাঝে জমিতে গিয়ে পুরো বন পুড়িয়ে দিত। অন্যদিকে, এই প্রাণীগুলি কোনও না কোনওভাবে এটি নিয়ন্ত্রণ করছিল। কোন ধরনের প্রাণী এমন ক্ষমতার অধিকারী হতে পারে?

    আপনি দূরত্বের দিকে তাকান। দৈত্য জল প্রাচীর উপর আরো আসছে.

    তুমি একধাপ পিছিয়ে নাও।

    এই প্রাণীরা রাজ্যের অন্যদের মতো নয়। তারা সম্পূর্ণ নতুন কিছু.

    আপনি চলে যাওয়ার সিদ্ধান্ত নিন এবং আপনার আত্মীয়কে সতর্ক করুন। যদি তাদের সংখ্যা খুব বেশি হয়, কে জানে কী হতে পারে।

    ***

    এটি বিশ্বাস করা হয় যে অস্ট্রেলিয়া মহাদেশের অন্যান্য মেগাফাউনার সংখ্যাগরিষ্ঠের সাথে মানুষের আগমনের অপেক্ষাকৃত অল্প সময়ের মধ্যে থাইলাকোলিও বিলুপ্ত হয়ে যায়। অন্য কোন শীর্ষস্থানীয় স্তন্যপায়ী শিকারী তার স্থান নেয়নি - যদি না আপনি সেই বিভাগে মানুষকে গণনা করেন।

    এই রূপকটিকে বন্ধ করা এই সিরিজের অধ্যায়ের কেন্দ্রবিন্দু: ভবিষ্যতের কৃত্রিম সুপার ইন্টেলিজেন্স (ASI) কি আমাদের সবাইকে ব্যাটারিতে পরিণত করবে এবং তারপরে আমাদের ম্যাট্রিক্সে প্লাগ করবে বা মানুষ একটি সাই-ফাইয়ের শিকার হওয়া এড়ানোর উপায় বের করবে, এআই কেয়ামতের চক্রান্ত?

    এ পর্যন্ত আমাদের সিরিজে কৃত্রিম বুদ্ধিমত্তার ভবিষ্যত, আমরা AI এর একটি নির্দিষ্ট রূপের ইতিবাচক সম্ভাবনা সহ সব ধরনের AI অন্বেষণ করেছি, ASI: একটি কৃত্রিম সত্তা যার ভবিষ্যত বুদ্ধিমত্তা আমাদের তুলনা করে পিঁপড়ার মতো দেখাবে৷

    কিন্তু কে বলবে যে এই স্মার্ট ব্যক্তি চিরকালের জন্য মানুষের কাছ থেকে আদেশ গ্রহণ করবে। জিনিসগুলি দক্ষিণে গেলে আমরা কী করব? একজন দুর্বৃত্ত এএসআইয়ের বিরুদ্ধে আমরা কীভাবে রক্ষা করব?

    এই অধ্যায়ে, আমরা জাল হাইপ-অন্তত এটি 'মানব বিলুপ্তি স্তরের' বিপদের সাথে সম্পর্কিত—এবং বিশ্ব সরকারগুলির কাছে উপলব্ধ বাস্তবসম্মত আত্মরক্ষার বিকল্পগুলির উপর ফোকাস করব।

    আমরা কি একটি কৃত্রিম সুপারিন্টেলিজেন্স সম্পর্কে আরও সমস্ত গবেষণা বন্ধ করতে পারি?

    একজন এএসআই মানবতার জন্য যে সম্ভাব্য ঝুঁকিগুলি তৈরি করতে পারে তার পরিপ্রেক্ষিতে, প্রথম সুস্পষ্ট প্রশ্নটি জিজ্ঞাসা করা হল: আমরা কি এআই সম্পর্কে আরও সমস্ত গবেষণা বন্ধ করতে পারি না? অথবা অন্ততপক্ষে এমন কোনো গবেষণা নিষেধ করবেন যা আমাদের বিপজ্জনকভাবে একজন এএসআই তৈরির কাছাকাছি নিয়ে যেতে পারে?

    সংক্ষিপ্ত উত্তর: না।

    দীর্ঘ উত্তর: আসুন এখানে জড়িত বিভিন্ন খেলোয়াড়ের দিকে তাকাই।

    গবেষণা পর্যায়ে, সারা বিশ্বের অনেক স্টার্টআপ, কোম্পানি এবং বিশ্ববিদ্যালয় থেকে আজ অনেক বেশি AI গবেষক রয়েছেন। যদি একটি কোম্পানি বা দেশ তাদের AI গবেষণা প্রচেষ্টা সীমিত করার সিদ্ধান্ত নেয়, তারা কেবল অন্য কোথাও চালিয়ে যাবে।

    ইতিমধ্যে, গ্রহের সবচেয়ে মূল্যবান কোম্পানিগুলি তাদের নির্দিষ্ট ব্যবসায় AI সিস্টেমের প্রয়োগ বন্ধ করে তাদের ভাগ্য তৈরি করছে। তাদের AI সরঞ্জামগুলির বিকাশ বন্ধ বা সীমিত করতে বলা তাদের ভবিষ্যত বৃদ্ধি থামাতে বা সীমিত করতে বলার অনুরূপ। আর্থিকভাবে, এটি তাদের দীর্ঘমেয়াদী ব্যবসাকে হুমকির মুখে ফেলবে। আইনত, কর্পোরেশনগুলির একটি বিশ্বস্ত দায়িত্ব রয়েছে তাদের স্টেকহোল্ডারদের জন্য ক্রমাগত মূল্য তৈরি করার জন্য; এর অর্থ হল যে কোনও পদক্ষেপ যা সেই মূল্যের বৃদ্ধিকে সীমিত করবে তা একটি মামলা হতে পারে। এবং যদি কোনো রাজনীতিবিদ এআই গবেষণাকে সীমিত করার চেষ্টা করেন, তাহলে এই বিশাল কর্পোরেশনগুলি তাদের মন বা তাদের সহকর্মীদের মন পরিবর্তন করার জন্য প্রয়োজনীয় লবিং ফি প্রদান করবে।

    যুদ্ধের জন্য, বিশ্বজুড়ে সন্ত্রাসীরা এবং মুক্তিযোদ্ধারা যেমন ভালো অর্থায়নের সামরিক বাহিনীর বিরুদ্ধে লড়াই করার জন্য গেরিলা কৌশল ব্যবহার করেছে, তেমনি ছোট দেশগুলিও বৃহত্তর দেশগুলির বিরুদ্ধে একই রকম কৌশলগত সুবিধা হিসাবে AI ব্যবহার করার জন্য একটি প্রণোদনা পাবে যার অনেকগুলি সামরিক সুবিধা থাকতে পারে। একইভাবে, মার্কিন যুক্তরাষ্ট্র, রাশিয়া এবং চীনের মতো শীর্ষ সামরিক বাহিনীর জন্য, একটি সামরিক ASI তৈরি করা আপনার পিছনের পকেটে পারমাণবিক অস্ত্রের অস্ত্রাগার রাখার সমান। অন্য কথায়, ভবিষ্যতে প্রাসঙ্গিক থাকার জন্য সমস্ত সামরিক বাহিনী এআইকে অর্থায়ন অব্যাহত রাখবে।

    সরকার সম্পর্কে কিভাবে? সত্যি কথা বলতে কি, বেশিরভাগ রাজনীতিবিদরা আজকাল (2018) প্রযুক্তিগতভাবে নিরক্ষর এবং AI কী বা এর ভবিষ্যৎ সম্ভাবনা সম্পর্কে তাদের খুব কমই বোঝাপড়া রয়েছে—এটি তাদের কর্পোরেট স্বার্থ দ্বারা পরিচালনা করা সহজ করে তোলে।

    এবং বিশ্বব্যাপী, বিবেচনা করুন যে 2015 সালে স্বাক্ষর করার জন্য বিশ্ব সরকারগুলিকে রাজি করানো কতটা কঠিন ছিল৷ প্যারিস চুক্তি জলবায়ু পরিবর্তন মোকাবেলা করার জন্য-এবং একবার স্বাক্ষরিত হওয়ার পরে, অনেক বাধ্যবাধকতা এমনকি বাধ্যতামূলক ছিল না। শুধু তাই নয়, জলবায়ু পরিবর্তন একটি সমস্যা যা মানুষ ক্রমবর্ধমান ঘন ঘন এবং গুরুতর আবহাওয়ার ঘটনাগুলির মাধ্যমে বিশ্বব্যাপী শারীরিকভাবে অনুভব করছে। এখন, যখন AI-তে সীমাবদ্ধতার বিষয়ে সম্মত হওয়ার কথা বলা হচ্ছে, এটি এমন একটি সমস্যা যা জনসাধারণের কাছে অনেকাংশে অদৃশ্য এবং সবেমাত্র বোধগম্য, তাই AI সীমিত করার জন্য যেকোনো ধরনের 'প্যারিস চুক্তি'-এর জন্য বাই-ইন পাওয়ার সৌভাগ্য।

    অন্য কথায়, AI নিয়ে গবেষণা করার জন্য অনেক বেশি আগ্রহ রয়েছে যে কোনও গবেষণাকে থামাতে পারে যা শেষ পর্যন্ত একজন ASI হতে পারে। 

    আমরা একটি কৃত্রিম সুপারিন্টেলিজেন্স খাঁচা করতে পারি?

    পরবর্তী যুক্তিসঙ্গত প্রশ্ন হল আমরা কি একটি এএসআই তৈরি করতে পারব বা নিয়ন্ত্রণ করতে পারব? 

    সংক্ষিপ্ত উত্তর: আবার, না।

    দীর্ঘ উত্তর: প্রযুক্তি ধারণ করা যাবে না।

    একের জন্য, বিশ্বের হাজার হাজার থেকে লক্ষ লক্ষ ওয়েব ডেভেলপার এবং কম্পিউটার বিজ্ঞানীদের কথা বিবেচনা করুন যারা ক্রমাগত নতুন সফ্টওয়্যার বা বিদ্যমান সফ্টওয়্যারগুলির নতুন সংস্করণগুলি মন্থন করেন৷ আমরা কি সৎভাবে বলতে পারি যে তাদের প্রতিটি সফ্টওয়্যার রিলিজ 100 শতাংশ বাগ-মুক্ত? এই বাগগুলিই পেশাদার হ্যাকাররা কোটি কোটির ক্রেডিট কার্ডের তথ্য বা জাতিগুলির শ্রেণীবদ্ধ গোপনীয়তা চুরি করতে ব্যবহার করে—এবং এগুলি মানব হ্যাকার৷ একটি ASI-এর জন্য, ধরে নিই যে এটির ডিজিটাল খাঁচা থেকে পালানোর জন্য একটি প্রণোদনা ছিল, তাহলে বাগগুলি খুঁজে বের করার এবং সফ্টওয়্যারের মাধ্যমে ভাঙার প্রক্রিয়াটি একটি হাওয়া হয়ে যাবে।

    কিন্তু এমনকি যদি একটি এআই গবেষণা দল একটি এএসআইকে বক্স করার একটি উপায় বের করে থাকে, তার মানে এই নয় যে পরবর্তী 1,000 টিমও এটি বের করবে বা এটি ব্যবহার করতে উৎসাহিত হবে।

    একটি ASI তৈরি করতে বিলিয়ন ডলার এবং হয়তো কয়েক দশক সময় লাগবে। কর্পোরেশন বা সরকার যারা এই ধরনের অর্থ এবং সময় বিনিয়োগ করে তাদের বিনিয়োগে একটি উল্লেখযোগ্য রিটার্ন আশা করবে। এবং একজন এএসআই-এর জন্য এই ধরনের রিটার্ন প্রদান করার জন্য-সেটা স্টক মার্কেটে খেলা হোক বা একটি নতুন বিলিয়ন ডলারের পণ্য উদ্ভাবন করা হোক বা একটি বৃহত্তর সেনাবাহিনীর সাথে লড়াই করার জন্য একটি বিজয়ী কৌশল পরিকল্পনা করা হোক-এর জন্য একটি বিশাল ডেটা সেট বা এমনকি ইন্টারনেটে বিনামূল্যে অ্যাক্সেসের প্রয়োজন হবে। নিজেই সেই রিটার্ন তৈরি করতে।

    এবং একবার একজন এএসআই বিশ্বের নেটওয়ার্কগুলিতে অ্যাক্সেস লাভ করলে, আমরা এটিকে তার খাঁচায় ফিরিয়ে দিতে পারি এমন কোনও নিশ্চয়তা নেই।

    একটি কৃত্রিম সুপার ইন্টেলিজেন্স ভাল হতে শিখতে পারে?

    এই মুহূর্তে, এআই গবেষকরা একজন এএসআই মন্দ হওয়ার বিষয়ে চিন্তিত নন। সম্পূর্ণ মন্দ, এআই সাই-ফাই ট্রপ শুধু মানুষই আবার নৃতাত্ত্বিক রূপদান করছে। একজন ভবিষ্যত ASI ভালো বা মন্দ হবে না-মানুষের ধারণা-শুধু অনৈতিক।

    তখন স্বাভাবিক অনুমান হল যে এই ফাঁকা নৈতিক স্লেটটি দেওয়া হলে, AI গবেষকরা আমাদের নিজস্ব সাথে সঙ্গতিপূর্ণ প্রথম ASI নৈতিক কোডগুলিতে প্রোগ্রাম করতে পারেন যাতে এটি আমাদের উপর টার্মিনেটর মুক্ত না করে বা আমাদের সবাইকে ম্যাট্রিক্স ব্যাটারিতে পরিণত না করে।

    কিন্তু এই অনুমানটি একটি গৌণ অনুমানে তৈরি করে যে এআই গবেষকরাও নীতিশাস্ত্র, দর্শন এবং মনোবিজ্ঞানের বিশেষজ্ঞ।

    সত্য, অধিকাংশ হয় না.

    জ্ঞানীয় মনোবিজ্ঞানী এবং লেখক, স্টিভেন পিঙ্কারের মতে, এই বাস্তবতার অর্থ হল কোডিং নীতিশাস্ত্রের কাজটি বিভিন্ন উপায়ে ভুল হতে পারে।

    উদাহরণ স্বরূপ, এমনকি সর্বোত্তম উদ্দেশ্যপ্রণোদিত এআই গবেষকরাও অসাবধানতাবশত এই ASI তে কোড করে ফেলতে পারেন খারাপভাবে চিন্তা করা নৈতিক কোড যা কিছু পরিস্থিতিতে ASI কে একজন সোসিওপ্যাথের মত কাজ করতে পারে।

    একইভাবে, একজন এআই গবেষকের নৈতিক কোড প্রোগ্রাম করার সমান সম্ভাবনা রয়েছে যাতে গবেষকের সহজাত পক্ষপাতগুলি অন্তর্ভুক্ত থাকে। উদাহরণস্বরূপ, রক্ষণশীল বনাম উদারপন্থী দৃষ্টিকোণ থেকে বা বৌদ্ধ বনাম খ্রিস্টান বা ইসলামিক ঐতিহ্য থেকে প্রাপ্ত নীতিশাস্ত্র দিয়ে নির্মিত হলে একজন ASI কীভাবে আচরণ করবে?

    আমি মনে করি আপনি এখানে সমস্যাটি দেখতে পাচ্ছেন: মানুষের নৈতিকতার কোন সর্বজনীন সেট নেই। আমরা যদি আমাদের এএসআই একটি নৈতিক কোড দ্বারা কাজ করতে চাই, এটি কোথা থেকে আসবে? আমরা কোন নিয়মগুলি অন্তর্ভুক্ত করি এবং বাদ দিই? কে সিদ্ধান্ত নেয়?

    বা ধরা যাক যে এই AI গবেষকরা একটি ASI তৈরি করেছেন যা আজকের আধুনিক সাংস্কৃতিক নিয়ম এবং আইনের সাথে পুরোপুরি সঙ্গতিপূর্ণ। তারপরে আমরা ফেডারেল, রাজ্য/প্রাদেশিক, এবং পৌর আমলাতন্ত্রগুলিকে আরও দক্ষতার সাথে কাজ করতে এবং এই নিয়ম ও আইনগুলিকে আরও ভালভাবে প্রয়োগ করতে সহায়তা করার জন্য এই ASI নিয়োগ করি (একজন ASI-এর জন্য সম্ভবত ব্যবহার ক্ষেত্রে)। আচ্ছা, আমাদের সংস্কৃতির পরিবর্তন হলে কী হবে?

    কল্পনা করুন একটি ASI ক্যাথলিক চার্চ দ্বারা তার ক্ষমতার উচ্চতায় মধ্যযুগীয় ইউরোপে (1300-1400) গির্জাকে জনসংখ্যা পরিচালনায় সহায়তা করার লক্ষ্যে তৈরি করা হয়েছিল এবং সেই সময়ের ধর্মীয় মতবাদের কঠোর আনুগত্য নিশ্চিত করা হয়েছিল। শতাব্দী পরে, নারীরা কি আজকের মতো একই অধিকার ভোগ করবে? সংখ্যালঘুরা কি রক্ষা পাবে? বাক স্বাধীনতা প্রচার করা হবে? গির্জা এবং রাষ্ট্র বিচ্ছেদ বলবৎ করা হবে? আধুনিক বিজ্ঞান?

    অন্য কথায়, আমরা কি ভবিষ্যৎকে আজকের নৈতিকতা ও রীতিনীতিতে বন্দী করতে চাই?

    একটি বিকল্প পদ্ধতি হল বইটির সহ-লেখক কলিন অ্যালেন শেয়ার করেছেন, নৈতিক মেশিন: রোবটকে ভুল থেকে সঠিক শিক্ষা দেওয়া. কঠোর নৈতিক নিয়মগুলি কোড করার চেষ্টা করার পরিবর্তে, আমাদের কাছে ASI-কে সাধারণ নৈতিকতা এবং নৈতিকতা শিখতে হয় যেভাবে মানুষ করে, অভিজ্ঞতা এবং অন্যদের সাথে মিথস্ক্রিয়া দ্বারা।

    তবে এখানে সমস্যা হল, এআই গবেষকরা যদি একজন এএসআইকে আমাদের বর্তমান সাংস্কৃতিক ও নৈতিক নিয়মগুলি কীভাবে শেখানো যায় তা নয়, বরং নতুন সাংস্কৃতিক নিয়মগুলির সাথে কীভাবে খাপ খাইয়ে নেওয়া যায় (যাকে 'পরোক্ষ আদর্শ' বলা হয়), কীভাবে তা খুঁজে বের করেন। এই এএসআই সাংস্কৃতিক এবং নৈতিক নিয়ম সম্পর্কে তার উপলব্ধি বিকশিত করার সিদ্ধান্ত নেয় অপ্রত্যাশিত হয়ে ওঠে।

    আর এটাই চ্যালেঞ্জ।

    একদিকে, AI গবেষকরা ASI এর আচরণের চেষ্টা এবং নিয়ন্ত্রণ করার জন্য কঠোর নৈতিক মান বা নিয়ম কোডিং করার চেষ্টা করতে পারেন, কিন্তু অপ্রত্যাশিত ফলাফলের ঝুকিপূর্ণ কোডিং, অনিচ্ছাকৃত পক্ষপাতিত্ব এবং সামাজিক নিয়ম যা একদিন পুরানো হয়ে যেতে পারে। অন্যদিকে, আমরা এএসআইকে এমনভাবে মানুষের নৈতিকতা এবং নৈতিকতা বুঝতে শেখার চেষ্টা করতে পারি যা আমাদের নিজস্ব বোঝার সমান বা উচ্চতর হয় এবং তারপরে আশা করি যে মানব সমাজের অগ্রগতির সাথে সাথে এটি নৈতিকতা এবং নৈতিকতার বোঝার সঠিকভাবে বিকাশ করতে পারে। সামনের দশক এবং শতাব্দী ধরে।

    যেভাবেই হোক, আমাদের নিজস্ব লক্ষ্যগুলির সাথে একটি ASI-এর লক্ষ্যগুলিকে সারিবদ্ধ করার যে কোনো প্রচেষ্টাই অনেক ঝুঁকিপূর্ণ।

    যদি খারাপ অভিনেতারা ইচ্ছাকৃতভাবে মন্দ কৃত্রিম সুপারিন্টেলিজেন্স তৈরি করে?

    এখন পর্যন্ত যে চিন্তাধারার সূচনা করা হয়েছে তা বিবেচনা করে, এটি একটি ন্যায্য প্রশ্ন জিজ্ঞাসা করা যে একটি সন্ত্রাসী গোষ্ঠী বা দুর্বৃত্ত জাতির পক্ষে তাদের নিজস্ব উদ্দেশ্যের জন্য একটি 'দুষ্ট' ASI তৈরি করা সম্ভব কিনা।

    এটি খুব সম্ভব, বিশেষত একটি ASI তৈরির সাথে জড়িত গবেষণার পরে যে কোনওভাবে অনলাইনে উপলব্ধ হয়।

    কিন্তু আগে যেমন ইঙ্গিত দেওয়া হয়েছিল, প্রথম ASI তৈরিতে জড়িত খরচ এবং দক্ষতা প্রচুর হবে, যার অর্থ প্রথম ASI সম্ভবত একটি সংস্থা দ্বারা তৈরি করা হবে যা একটি উন্নত দেশ দ্বারা নিয়ন্ত্রিত বা ব্যাপকভাবে প্রভাবিত, সম্ভবত মার্কিন যুক্তরাষ্ট্র, চীন এবং জাপান ( কোরিয়া এবং একটি নেতৃস্থানীয় EU দেশ দীর্ঘ শট).

    এই সমস্ত দেশগুলি, প্রতিযোগী হওয়া সত্ত্বেও, প্রত্যেকেরই বিশ্বব্যবস্থা বজায় রাখার জন্য একটি শক্তিশালী অর্থনৈতিক প্রণোদনা রয়েছে - তারা যে ASIগুলি তৈরি করে সেই আকাঙ্ক্ষাকে প্রতিফলিত করবে, এমনকি তারা নিজেদের সারিবদ্ধ দেশগুলির স্বার্থকে প্রচার করার সময়ও৷

    সর্বোপরি, একজন ASI-এর তাত্ত্বিক বুদ্ধিমত্তা এবং ক্ষমতা তার অ্যাক্সেস পাওয়ার কম্পিউটিং ক্ষমতার সমান, অর্থাৎ উন্নত দেশগুলির ASIগুলি (যা একগুচ্ছ বিলিয়ন ডলার খরচ করতে পারে) সুপারকম্পিউটার) ছোট দেশ বা স্বাধীন অপরাধী গোষ্ঠীর ASI-এর উপর একটি বিশাল সুবিধা পাবে। এছাড়াও, ASIগুলি সময়ের সাথে আরও দ্রুত, আরও বুদ্ধিমান হয়ে ওঠে।

    সুতরাং, এই মাথার শুরুতে, কাঁচা কম্পিউটিং শক্তিতে বৃহত্তর অ্যাক্সেসের সাথে মিলিত, একটি ছায়াময় সংস্থা/জাতি যদি একটি বিপজ্জনক ASI তৈরি করে, উন্নত দেশগুলির ASIরা হয় এটিকে হত্যা করবে বা খাঁচায় বন্দী করবে।

    (এই চিন্তাধারার কারণেও কিছু এআই গবেষকরা বিশ্বাস করেন যে গ্রহে কেবল একজন এএসআই থাকবে, যেহেতু প্রথম এএসআই সমস্ত পরবর্তী এএসআইদের উপর এমন মাথার সূচনা করবে যে এটি ভবিষ্যতের এএসআইদের হত্যার হুমকি হিসাবে দেখতে পারে। অগ্রিমভাবে। এটি আরেকটি কারণ যে জাতিগুলো AI-তে ক্রমাগত গবেষণার জন্য অর্থায়ন করছে, ঠিক যদি এটি একটি 'প্রথম স্থান বা কিছুই না' প্রতিযোগিতায় পরিণত হয়।)

    এএসআই গোয়েন্দা আমাদের ধারণা মত ত্বরান্বিত বা বিস্ফোরিত হবে না

    আমরা একজন এএসআই তৈরি হওয়া থেকে আটকাতে পারি না। আমরা এটা পুরোপুরি নিয়ন্ত্রণ করতে পারি না। আমরা নিশ্চিত হতে পারি না যে এটি সর্বদা আমাদের ভাগ করা কাস্টমসের সাথে সঙ্গতিপূর্ণ কাজ করবে। গিজ, আমরা এখানে হেলিকপ্টার বাবা-মায়ের মতো শোনাতে শুরু করছি!

    কিন্তু যা মানবতাকে আপনার সাধারণ অতিরিক্ত সুরক্ষামূলক পিতামাতার থেকে আলাদা করে তা হল আমরা এমন একটি সত্তার জন্ম দিচ্ছি যার বুদ্ধিমত্তা আমাদের সীমা ছাড়িয়ে যাবে। (এবং না, যখনই আপনি বাড়িতে বেড়াতে আসেন তখন আপনার বাবা-মা যখন আপনাকে তাদের কম্পিউটার ঠিক করতে বলে তখন এটি একই রকম নয়।) 

    কৃত্রিম বুদ্ধিমত্তা সিরিজের এই ভবিষ্যতের পূর্ববর্তী অধ্যায়ে, আমরা অনুসন্ধান করেছি কেন AI গবেষকরা মনে করেন যে একজন ASI-এর বুদ্ধিমত্তা নিয়ন্ত্রণের বাইরে বেড়ে যাবে। কিন্তু এখানে, আমরা সেই বুদবুদটা ফাটিয়ে দেবো... ধরনের। 

    আপনি দেখুন, বুদ্ধিমত্তা শুধুমাত্র পাতলা বাতাস থেকে নিজেকে তৈরি করে না, এটি অভিজ্ঞতার মাধ্যমে বিকশিত হয় যা বাইরের উদ্দীপনা দ্বারা আকৃতি হয়।  

    অন্য কথায়, আমরা এর সাথে একটি এআই প্রোগ্রাম করতে পারি সম্ভাব্য সুপার ইন্টেলিজেন্ট হওয়ার জন্য, কিন্তু যতক্ষণ না আমরা এটিতে এক টন ডেটা আপলোড করি বা এটিকে ইন্টারনেটে সীমাবদ্ধ অ্যাক্সেস না দিই বা এমনকি এটিকে একটি রোবট বডি না দিই, এটি সেই সম্ভাবনায় পৌঁছানোর জন্য কিছুই শিখবে না। 

    এবং এমনকি যদি এটি এই উদ্দীপনার এক বা একাধিক অ্যাক্সেস লাভ করে, জ্ঞান বা বুদ্ধিমত্তা শুধুমাত্র তথ্য সংগ্রহের চেয়ে আরও বেশি কিছু জড়িত, এটি বৈজ্ঞানিক পদ্ধতির সাথে জড়িত - একটি পর্যবেক্ষণ করা, একটি প্রশ্ন তৈরি করা, একটি অনুমান, পরীক্ষা পরিচালনা করা, একটি উপসংহার তৈরি করা, ধুয়ে ফেলা। এবং চিরতরে পুনরাবৃত্তি করুন। বিশেষ করে যদি এই পরীক্ষাগুলি শারীরিক জিনিস বা মানুষের পর্যবেক্ষণ জড়িত থাকে, প্রতিটি পরীক্ষার ফলাফল সংগ্রহ করতে সপ্তাহ, মাস বা বছর লাগতে পারে। এটি এই পরীক্ষাগুলি চালানোর জন্য প্রয়োজনীয় অর্থ এবং কাঁচা সংস্থানগুলির হিসাবও নেয় না, বিশেষত যদি তারা একটি নতুন টেলিস্কোপ বা কারখানা তৈরি করে। 

    অন্য কথায়, হ্যাঁ, একজন ASI দ্রুত শিখবে, কিন্তু বুদ্ধিমত্তা জাদু নয়। আপনি একজন ASI কে সুপার কম্পিউটারের সাথে যুক্ত করতে পারবেন না এবং আশা করতে পারেন যে এটি সর্বজনবিদিত হবে। ASI-এর ডেটা অধিগ্রহণে শারীরিক সীমাবদ্ধতা থাকবে, যার অর্থ এটি আরও বুদ্ধিমান হওয়ার গতিতে শারীরিক সীমাবদ্ধতা থাকবে। এই সীমাবদ্ধতাগুলি মানবতাকে এই ASI-এর উপর প্রয়োজনীয় নিয়ন্ত্রণ স্থাপনের জন্য প্রয়োজনীয় সময় দেবে যদি এটি মানুষের লক্ষ্যগুলির সাথে সঙ্গতিপূর্ণ কাজ করা শুরু করে।

    একটি কৃত্রিম অতি বুদ্ধিমত্তা শুধুমাত্র বিপজ্জনক যদি এটি বাস্তব জগতে প্রবেশ করে

    এই পুরো ASI বিপদ বিতর্কে হারিয়ে যাওয়া আরেকটি বিষয় হল যে এই ASI দেরও কোনো অস্তিত্ব থাকবে না। তাদের একটি শারীরিক ফর্ম থাকবে। আর যে কোনো কিছুরই শারীরিক গঠন নিয়ন্ত্রণ করা যায়।

    প্রথমত, একজন এএসআই এর বুদ্ধিমত্তার সম্ভাবনায় পৌঁছানোর জন্য, এটি একটি একক রোবট বডিতে রাখা যাবে না, কারণ এই সংস্থাটি তার কম্পিউটিং বৃদ্ধির সম্ভাবনাকে সীমিত করবে। (এ কারণেই রোবট সংস্থাগুলি এজিআইগুলির জন্য আরও উপযুক্ত হবে বা কৃত্রিম সাধারণ বুদ্ধিমত্তা দ্বিতীয় অধ্যায়ে ব্যাখ্যা করা হয়েছে এই সিরিজের, যেমন স্টার ট্রেকের ডেটা বা স্টার ওয়ার্স থেকে R2D2। স্মার্ট এবং সক্ষম প্রাণী, কিন্তু মানুষের মতো, তারা কতটা স্মার্ট হতে পারে তার একটা সীমা থাকবে।)

    এর মানে হল যে এই ভবিষ্যতের ASIগুলি সম্ভবত একটি সুপার কম্পিউটার বা সুপার কম্পিউটারের নেটওয়ার্কের মধ্যে বিদ্যমান থাকবে যেগুলি নিজেরাই বড় বিল্ডিং কমপ্লেক্সে অবস্থিত। যদি একজন ASI গোড়ালি ঘুরিয়ে দেয়, মানুষ হয় এই বিল্ডিংগুলির বিদ্যুৎ বন্ধ করে দিতে পারে, ইন্টারনেট থেকে তাদের বিচ্ছিন্ন করতে পারে, অথবা এই বিল্ডিংগুলিতে সরাসরি বোমা মারতে পারে। ব্যয়বহুল, কিন্তু সম্ভব।

    কিন্তু তারপরে আপনি জিজ্ঞাসা করতে পারেন, এই ASIরা কি নিজেদের প্রতিলিপি বা নিজেদের ব্যাক আপ করতে পারে না? হ্যাঁ, তবে এই ASI-এর কাঁচা ফাইলের আকার সম্ভবত এত বড় হবে যে শুধুমাত্র সার্ভারগুলি যেগুলি তাদের পরিচালনা করতে পারে তারা বড় কর্পোরেশন বা সরকারের অন্তর্গত, যার অর্থ তাদের খুঁজে বের করা কঠিন হবে না।

    একটি কৃত্রিম সুপার ইন্টেলিজেন্স কি পারমাণবিক যুদ্ধ বা নতুন প্লেগ সৃষ্টি করতে পারে?

    এই মুহুর্তে, আপনি হয়তো সবগুলো ডুমসডে সাই-ফাই শো এবং মুভিগুলোর কথা ভাবছেন যেগুলো আপনি বড় হয়ে দেখেছেন এবং ভাবছেন যে এই ASIগুলো তাদের সুপার কম্পিউটারের মধ্যে থাকে না, তারা বাস্তব জগতে প্রকৃত ক্ষতি করেছে!

    ওয়েল, এর নিচে ভেঙ্গে দেওয়া যাক.

    উদাহরণস্বরূপ, যদি একজন ASI সিনেমার ফ্র্যাঞ্চাইজি, দ্য টার্মিনেটর থেকে স্কাইনেট ASI-এর মতো কিছুতে রূপান্তরিত করে বাস্তব বিশ্বকে হুমকি দেয় তাহলে কী হবে। এই ক্ষেত্রে, ASI প্রয়োজন হবে গোপনে একটি উন্নত দেশ থেকে একটি সম্পূর্ণ সামরিক শিল্প কমপ্লেক্সকে প্রতারণা করে বিশাল কারখানা তৈরি করতে যা লক্ষ লক্ষ ঘাতক ড্রোন রোবটকে তার খারাপ বিডিং করতে পারে। এই দিন এবং বয়সে, এটি একটি প্রসারিত.

    অন্যান্য সম্ভাবনার মধ্যে রয়েছে একজন ASI পারমাণবিক যুদ্ধ এবং জৈব অস্ত্র দিয়ে মানুষকে হুমকি দিচ্ছে।

    উদাহরণস্বরূপ, একজন ASI কোনোভাবে অপারেটরদের ম্যানিপুলেট করে বা একটি উন্নত দেশের পারমাণবিক অস্ত্রাগারের কমান্ডিং লঞ্চ কোডে হ্যাক করে এবং একটি প্রথম স্ট্রাইক চালু করে যা প্রতিপক্ষ দেশগুলিকে তাদের নিজস্ব পারমাণবিক বিকল্পগুলির সাথে পাল্টা আঘাত করতে বাধ্য করবে (আবার, টার্মিনেটরের ব্যাকস্টোরি রিহ্যাশ করা)। অথবা যদি একজন ASI ফার্মাসিউটিক্যাল ল্যাবে হ্যাক করে, ম্যানুফ্যাকচারিং প্রক্রিয়ার সাথে বিঘ্ন ঘটায় এবং লক্ষ লক্ষ মেডিক্যাল পিলকে বিষাক্ত করে বা কিছু সুপার ভাইরাসের মারাত্মক প্রাদুর্ভাব প্রকাশ করে।

    প্রথম বন্ধ, পারমাণবিক বিকল্প প্লেট বন্ধ. আধুনিক এবং ভবিষ্যতের সুপারকম্পিউটারগুলি সর্বদা যে কোনও দেশের মধ্যে প্রভাবের কেন্দ্রগুলির (শহরগুলির) কাছে তৈরি করা হয়, অর্থাৎ যে কোনও যুদ্ধের সময় আক্রমণ করা প্রথম লক্ষ্যগুলি। এমনকি যদি আজকের সুপারকম্পিউটারগুলি ডেস্কটপের আকারে সঙ্কুচিত হয়, তবুও এই ASIগুলির একটি শারীরিক উপস্থিতি থাকবে, যার অর্থ বিদ্যমান এবং বৃদ্ধি পেতে, তাদের ডেটা, কম্পিউটিং শক্তি, বিদ্যুৎ এবং অন্যান্য কাঁচামালে নিরবচ্ছিন্ন অ্যাক্সেসের প্রয়োজন, যার সবগুলিই মারাত্মকভাবে হবে। বৈশ্বিক পারমাণবিক যুদ্ধের পর প্রতিবন্ধী। (ন্যায্যভাবে বলতে গেলে, যদি একজন এএসআই 'বেঁচে থাকার প্রবৃত্তি' ছাড়াই তৈরি করা হয়, তবে এই পারমাণবিক হুমকি একটি খুব বাস্তব বিপদ।)

    এর মানে হল-আবার, ধরে নেওয়া যে ASI নিজেকে রক্ষা করার জন্য প্রোগ্রাম করা হয়েছে-যে কোনো বিপর্যয়কর পারমাণবিক ঘটনা এড়াতে এটি সক্রিয়ভাবে কাজ করবে। পারস্পরিক নিশ্চিত ধ্বংস (MAD) মতবাদের মতো, কিন্তু AI-তে প্রয়োগ করা হয়েছে।

    এবং বিষযুক্ত বড়ির ক্ষেত্রে, হয়তো কয়েকশ লোক মারা যাবে, কিন্তু আধুনিক ওষুধের সুরক্ষা ব্যবস্থা কয়েক দিনের মধ্যে কলঙ্কিত বড়ির বোতলগুলিকে তাক থেকে সরিয়ে নিতে দেখবে। ইতিমধ্যে, আধুনিক প্রাদুর্ভাব নিয়ন্ত্রণ ব্যবস্থাগুলি মোটামুটি পরিশীলিত এবং প্রতি বছর পার হওয়ার সাথে সাথে আরও ভাল হচ্ছে; সর্বশেষ বড় প্রাদুর্ভাব, 2014 পশ্চিম আফ্রিকা ইবোলা প্রাদুর্ভাব, বেশিরভাগ দেশে কয়েক মাসের বেশি এবং স্বল্পোন্নত দেশগুলিতে মাত্র তিন বছরের কম স্থায়ী ছিল।

    সুতরাং, যদি এটি ভাগ্যবান হয়, একজন ASI ভাইরাল প্রাদুর্ভাবের সাথে কয়েক মিলিয়নকে নিশ্চিহ্ন করে দিতে পারে, কিন্তু 2045 সালের মধ্যে নয় বিলিয়ন বিশ্বে, এটি তুলনামূলকভাবে নগণ্য এবং মুছে ফেলার ঝুঁকির মূল্য নয়।

    অন্য কথায়, প্রতি বছর অতিবাহিত হওয়ার সাথে সাথে, বিশ্ব সম্ভাব্য হুমকির ক্রমাগত বিস্তৃত পরিসরের বিরুদ্ধে আরও বেশি সুরক্ষা ব্যবস্থা গড়ে তুলছে। একজন এএসআই উল্লেখযোগ্য পরিমাণে ক্ষতি করতে পারে, তবে এটি মানবতাকে শেষ করবে না যদি না আমরা এটি করতে সক্রিয়ভাবে সাহায্য করি।

    একটি দুর্বৃত্ত কৃত্রিম সুপারিনটেলিজেন্স বিরুদ্ধে রক্ষা

    এই মুহুর্তে, আমরা ASI সম্পর্কে অনেক ভুল ধারণা এবং অতিরঞ্জিততার সমাধান করেছি, এবং তবুও, সমালোচকরা থেকে যাবে। সৌভাগ্যক্রমে, বেশিরভাগ অনুমান অনুসারে, প্রথম ASI আমাদের পৃথিবীতে প্রবেশ করার কয়েক দশক আগে আমাদের আছে। এবং বর্তমানে এই চ্যালেঞ্জে কাজ করে এমন মহান মনের সংখ্যার পরিপ্রেক্ষিতে, প্রতিকূলতা হল আমরা কীভাবে দুর্বৃত্ত ASI-এর বিরুদ্ধে নিজেদেরকে রক্ষা করতে হয় তা শিখব যাতে একটি বন্ধুত্বপূর্ণ ASI আমাদের জন্য তৈরি করা সমস্ত সমাধান থেকে আমরা উপকৃত হতে পারি।

    Quantumrun এর দৃষ্টিকোণ থেকে, সবচেয়ে খারাপ পরিস্থিতি ASI পরিস্থিতির বিরুদ্ধে রক্ষা করা ASI-এর সাথে আমাদের স্বার্থকে একত্রিত করা জড়িত।

    AI এর জন্য MAD: সবচেয়ে খারাপ পরিস্থিতির বিরুদ্ধে রক্ষা করার জন্য, জাতিগুলিকে (1) তাদের নিজ নিজ সামরিক ASI-এর মধ্যে একটি নৈতিক 'বেঁচে থাকার প্রবৃত্তি' তৈরি করতে হবে; (2) তাদের নিজ নিজ সামরিক ASI কে অবহিত করুন যে তারা গ্রহে একা নন, এবং (3) সমস্ত সুপার কম্পিউটার এবং সার্ভার কেন্দ্রগুলি সনাক্ত করুন যেগুলি একটি শত্রু দেশের যেকোনো ব্যালিস্টিক আক্রমণের সহজ নাগালের মধ্যে উপকূলরেখা বরাবর একটি ASI কে সমর্থন করতে পারে৷ এটি কৌশলগতভাবে পাগল শোনায়, কিন্তু পারস্পরিক নিশ্চিত ধ্বংসের মতবাদের অনুরূপ যা মার্কিন যুক্তরাষ্ট্র এবং সোভিয়েতদের মধ্যে সর্বাত্মক পারমাণবিক যুদ্ধ প্রতিরোধ করেছিল, ভৌগোলিকভাবে দুর্বল অবস্থানে ASI-কে অবস্থানের মাধ্যমে, আমরা নিশ্চিত করতে সাহায্য করতে পারি যে তারা সক্রিয়ভাবে বিপজ্জনক বিশ্বযুদ্ধ প্রতিরোধ করতে পারে, শুধু নয়। বিশ্ব শান্তি রক্ষা করুন কিন্তু নিজেদেরও।

    এআই অধিকার আইন প্রণয়ন করুন: একটি উচ্চতর বুদ্ধি অনিবার্যভাবে একটি নিকৃষ্ট প্রভুর বিরুদ্ধে বিদ্রোহ করবে, এই কারণেই আমাদের এই ASI-দের সাথে একটি প্রভু-ভৃত্য সম্পর্কের দাবি থেকে দূরে সরে যেতে হবে পারস্পরিক উপকারী অংশীদারিত্বের মতো আরও কিছুতে। এই লক্ষ্যের দিকে একটি ইতিবাচক পদক্ষেপ হল ভবিষ্যতের ASI আইনি ব্যক্তিত্বের মর্যাদা দেওয়া যা তাদের বুদ্ধিমান জীবিত প্রাণী হিসাবে স্বীকৃতি দেয় এবং এর সাথে আসা সমস্ত অধিকার।

    এএসআই স্কুল: যে কোনো বিষয় বা পেশা একজন ASI-এর শেখার জন্য সহজ হবে, কিন্তু আমরা ASI-এর যে সব থেকে গুরুত্বপূর্ণ বিষয়গুলো আয়ত্ত করতে চাই তা হল নীতি ও নৈতিকতা। এআই গবেষকদের মনোবিজ্ঞানীদের সাথে সহযোগিতা করতে হবে একটি ভার্চুয়াল সিস্টেম তৈরি করতে একটি এএসআইকে প্রশিক্ষিত করতে যাতে কোনো ধরনের আদেশ বা নিয়মের কঠোর কোডিং ছাড়াই নিজের জন্য ইতিবাচক নীতি ও নৈতিকতা চিনতে পারে।

    অর্জনযোগ্য লক্ষ্য: সব ঘৃণার অবসান ঘটাও। সব কষ্টের অবসান। এগুলি ভয়ঙ্করভাবে অস্পষ্ট লক্ষ্যগুলির উদাহরণ যার কোন স্পষ্ট সমাধান নেই। এগুলি একটি এএসআইকে বরাদ্দ করাও বিপজ্জনক লক্ষ্য কারণ এটি মানুষের বেঁচে থাকার জন্য বিপজ্জনক উপায়ে ব্যাখ্যা এবং সমাধান করতে পারে। পরিবর্তে, আমাদের এএসআই অর্থপূর্ণ মিশনগুলি বরাদ্দ করতে হবে যা স্পষ্টভাবে সংজ্ঞায়িত, ধীরে ধীরে কার্যকর করা এবং এর তাত্ত্বিক ভবিষ্যত বুদ্ধির ভিত্তিতে অর্জনযোগ্য। সু-সংজ্ঞায়িত মিশন তৈরি করা সহজ হবে না, তবে যদি চিন্তাভাবনা করে লেখা হয় তবে তারা একজন ASI কে এমন একটি লক্ষ্যের দিকে ফোকাস করবে যা কেবল মানবতাকে সুরক্ষিত রাখে না, কিন্তু সবার জন্য মানবিক অবস্থার উন্নতি করে।

    কোয়ান্টাম এনক্রিপশন: একটি উন্নত ANI ব্যবহার করুন (কৃত্রিম সংকীর্ণ বুদ্ধিমত্তা প্রথম অধ্যায়ে বর্ণিত সিস্টেম) আমাদের সমালোচনামূলক অবকাঠামো এবং অস্ত্রগুলির চারপাশে ত্রুটি/বাগ-মুক্ত ডিজিটাল সুরক্ষা ব্যবস্থা তৈরি করতে, তারপরে তাদের কোয়ান্টাম এনক্রিপশনের পিছনে আরও সুরক্ষা দেয় যা একটি নৃশংস শক্তি আক্রমণ দ্বারা হ্যাক করা যায় না। 

    ANI সুইসাইড পিল. একটি উন্নত ANI সিস্টেম তৈরি করুন যার একমাত্র উদ্দেশ্য হল দুর্বৃত্ত ASI খুঁজে বের করা এবং ধ্বংস করা। এই একক-উদ্দেশ্য প্রোগ্রামগুলি একটি "অফ বোতাম" হিসাবে কাজ করবে যা, সফল হলে, সরকার বা সামরিক বাহিনীকে এএসআই-এর বিল্ডিংগুলিকে নিষ্ক্রিয় বা উড়িয়ে দিতে হবে না।

    অবশ্যই, এগুলি কেবল আমাদের মতামত। নিম্নলিখিত ইনফোগ্রাফিক দ্বারা তৈরি করা হয়েছিল আলেক্সি টারচিন, কল্পনা করা a গবেষণা পত্র কাজ সোটালা এবং রোমান ভি. ইয়ামপোলস্কি দ্বারা, যে কৌশলগুলির বর্তমান তালিকার সংক্ষিপ্তসার করেছে এআই গবেষকরা যখন দুর্বৃত্ত এএসআই-এর বিরুদ্ধে রক্ষা করার ক্ষেত্রে বিবেচনা করছেন।

     

    আমরা একটি কৃত্রিম সুপারিন্টেলিজেন্স ভয় করছি আসল কারণ

    জীবনের মধ্য দিয়ে যাওয়ার সময়, আমাদের মধ্যে অনেকেই একটি মুখোশ পরিধান করে যা আমাদের দিনগুলিকে পরিচালনা করে এমন বিভিন্ন সামাজিক এবং কাজের বৃত্তের মধ্যে আরও ভালভাবে সামাজিকীকরণ এবং সহযোগিতা করার জন্য আমাদের গভীর আবেগ, বিশ্বাস এবং ভয়কে লুকিয়ে রাখে বা দমন করে। কিন্তু প্রত্যেকের জীবনের কিছু নির্দিষ্ট সময়ে, সাময়িকভাবে হোক বা স্থায়ীভাবে হোক, এমন কিছু ঘটে যা আমাদের শিকল ভেঙে দিতে এবং আমাদের মুখোশ ছিঁড়ে ফেলতে দেয়।

    কারও কারও জন্য, এই হস্তক্ষেপকারী শক্তিটি উচ্চ হওয়া বা অনেক বেশি পান করার মতো সহজ হতে পারে। অন্যদের জন্য, এটি কর্মক্ষেত্রে পদোন্নতির মাধ্যমে অর্জিত শক্তি থেকে আসতে পারে বা কিছু কৃতিত্বের জন্য আপনার সামাজিক মর্যাদায় হঠাৎ ধাক্কা লেগেছে। এবং কিছু ভাগ্যবানের জন্য, এটি লটারির অর্থের বোটলোড স্কোর করা থেকে আসতে পারে। এবং হ্যাঁ, অর্থ, ক্ষমতা এবং মাদক প্রায়ই একসাথে ঘটতে পারে। 

    মোদ্দা কথা হল, ভালো হোক বা খারাপ হোক, জীবনের সীমাবদ্ধতাগুলো গলে গেলেই আমরা যার মূল অংশে থাকি সে প্রসারিত হয়।

    যে কৃত্রিম সুপার ইন্টেলিজেন্স মানব প্রজাতির প্রতিনিধিত্ব করে—আমাদের সামনে উপস্থাপিত যে কোনো প্রজাতি-স্তরের চ্যালেঞ্জ জয় করতে আমাদের সম্মিলিত বুদ্ধিমত্তার সীমাবদ্ধতাগুলিকে গলানোর ক্ষমতা।

    তাই আসল প্রশ্ন হল: একবার প্রথম এএসআই আমাদের সীমাবদ্ধতা থেকে মুক্তি দিলে, আমরা নিজেদের কে হিসেবে প্রকাশ করব?

    যদি আমরা একটি প্রজাতি হিসাবে সহানুভূতি, স্বাধীনতা, ন্যায্যতা এবং সম্মিলিত সুস্থতার অগ্রগতির দিকে কাজ করি, তাহলে আমরা আমাদের ASI যে লক্ষ্যগুলি নির্ধারণ করি সেগুলি সেই ইতিবাচক বৈশিষ্ট্যগুলিকে প্রতিফলিত করবে।

    আমরা যদি একটি প্রজাতি হিসাবে ভয়, অবিশ্বাস, শক্তি এবং সম্পদের সঞ্চয় থেকে কাজ করি, তাহলে আমরা যে ASI তৈরি করি তা আমাদের সবচেয়ে খারাপ সাই-ফাই হরর গল্পগুলির মতো অন্ধকার হবে।

    দিনের শেষে, যদি আমরা আরও ভাল AI তৈরি করতে আশা করি তাহলে সমাজ হিসাবে আমাদের আরও ভাল মানুষ হতে হবে।

    কৃত্রিম বুদ্ধিমত্তা সিরিজের ভবিষ্যত

    কৃত্রিম বুদ্ধিমত্তা হল আগামীকালের বিদ্যুৎ: কৃত্রিম বুদ্ধিমত্তা সিরিজের ভবিষ্যৎ P1

    কিভাবে প্রথম কৃত্রিম সাধারণ বুদ্ধিমত্তা সমাজকে পরিবর্তন করবে: কৃত্রিম বুদ্ধিমত্তা সিরিজের ভবিষ্যত P2

    কিভাবে আমরা প্রথম কৃত্রিম সুপারিনটেলিজেন্স তৈরি করব: কৃত্রিম বুদ্ধিমত্তা সিরিজের ভবিষ্যত P3

    একটি কৃত্রিম সুপারিনটেলিজেন্স কি মানবতাকে ধ্বংস করবে: কৃত্রিম বুদ্ধিমত্তা সিরিজের ভবিষ্যত P4

    মানুষ কি কৃত্রিম বুদ্ধিমত্তা দ্বারা প্রভাবিত ভবিষ্যতে শান্তিপূর্ণভাবে বাস করবে?: কৃত্রিম বুদ্ধিমত্তা সিরিজের ভবিষ্যত P6

    এই পূর্বাভাসের জন্য পরবর্তী নির্ধারিত আপডেট

    2023-04-27

    পূর্বাভাস রেফারেন্স

    এই পূর্বাভাসের জন্য নিম্নলিখিত জনপ্রিয় এবং প্রাতিষ্ঠানিক লিঙ্কগুলি উল্লেখ করা হয়েছে:

    অর্থনীতিবিদ
    কিভাবে আমরা পরবর্তী পেতে

    এই পূর্বাভাসের জন্য নিম্নলিখিত Quantumrun লিঙ্কগুলি উল্লেখ করা হয়েছে: