AI প্রান্তিককরণ: কৃত্রিম বুদ্ধিমত্তার লক্ষ্যগুলি মানবিক মূল্যবোধের সাথে মেলে

ইমেজ ক্রেডিট:
চিত্র ক্রেডিট
iStock

AI প্রান্তিককরণ: কৃত্রিম বুদ্ধিমত্তার লক্ষ্যগুলি মানবিক মূল্যবোধের সাথে মেলে

AI প্রান্তিককরণ: কৃত্রিম বুদ্ধিমত্তার লক্ষ্যগুলি মানবিক মূল্যবোধের সাথে মেলে

উপশিরোনাম পাঠ্য
কিছু গবেষক বিশ্বাস করেন যে কৃত্রিম বুদ্ধিমত্তা যাতে সমাজের ক্ষতি না করে তা নিশ্চিত করার জন্য ব্যবস্থা বাস্তবায়ন করা উচিত।
    • লেখক:
    • লেখকের নাম
      কোয়ান্টামরুন দূরদর্শিতা
    • জানুয়ারী 25, 2023

    কৃত্রিম বুদ্ধিমত্তা (AI) সারিবদ্ধকরণ হল যখন একটি AI সিস্টেমের লক্ষ্য মানবিক মূল্যবোধের সাথে মেলে। ওপেনএআই, ডিপমাইন্ড এবং অ্যানথ্রপিকের মতো কোম্পানিগুলিতে গবেষকদের একটি দল রয়েছে যাদের একমাত্র ফোকাস হল বিভিন্ন পরিস্থিতিতে যা ঘটতে পারে তার জন্য গার্ডেল অধ্যয়ন করা।

    AI প্রান্তিককরণ প্রসঙ্গ

    একটি 2021 ইউনিভার্সিটি অফ কর্নেল গবেষণা গবেষণা অনুসারে, বেশ কয়েকটি গবেষণায় দেখা গেছে যে অ্যালগরিদম দ্বারা তৈরি করা সরঞ্জাম বা মডেলগুলি তাদের প্রশিক্ষণ দেওয়া ডেটা থেকে উত্সাহিত পক্ষপাত প্রদর্শন করে। উদাহরণস্বরূপ, ন্যাচারাল ল্যাঙ্গুয়েজ প্রসেসিং (NLP), সীমিত ডেটা সেটে প্রশিক্ষিত নির্বাচিত NLP মডেলগুলিকে নারীর বিরুদ্ধে ক্ষতিকর লিঙ্গ স্টিরিওটাইপের উপর ভিত্তি করে ভবিষ্যদ্বাণী করে নথিভুক্ত করা হয়েছে। একইভাবে, অন্যান্য গবেষণায় দেখা গেছে যে ট্যাম্পারড ডেটা সেটের উপর প্রশিক্ষিত অ্যালগরিদমগুলি জাতিগতভাবে পক্ষপাতদুষ্ট সুপারিশের ফলে, বিশেষ করে পুলিশিংয়ে।

    এমন অনেক উদাহরণ রয়েছে যেখানে মেশিন লার্নিং সিস্টেম সংখ্যালঘু বা একাধিক অসুবিধায় ভুগছেন এমন গোষ্ঠীর জন্য আরও খারাপ করেছে। বিশেষ করে, স্বয়ংক্রিয় মুখের বিশ্লেষণ এবং স্বাস্থ্যসেবা ডায়াগনস্টিকগুলি সাধারণত মহিলাদের এবং রঙের লোকদের জন্য খুব ভাল কাজ করে না। যখন সমালোচনামূলক সিস্টেমগুলি যা আবেগের পরিবর্তে তথ্য এবং যুক্তির উপর ভিত্তি করে হওয়া উচিত স্বাস্থ্যসেবা বা শিক্ষা বরাদ্দের মতো প্রসঙ্গে ব্যবহার করা হয়, তখন তারা এই সুপারিশগুলির পিছনে যুক্তি সনাক্ত করা কঠিন করে আরও ক্ষতি করতে পারে।

    ফলস্বরূপ, প্রযুক্তি সংস্থাগুলি অ্যালগরিদমগুলিকে ন্যায্য এবং মানবিক রাখার উপর ফোকাস করার জন্য এআই অ্যালাইনমেন্ট টিম তৈরি করছে। উন্নত এআই সিস্টেমের দিক বোঝার জন্য গবেষণা অপরিহার্য, সেইসাথে এআই ক্ষমতা বৃদ্ধির সাথে সাথে আমরা যে চ্যালেঞ্জগুলির মুখোমুখি হতে পারি।

    বিঘ্নিত প্রভাব

    ওপেনএআই (2021) এর এআই অ্যালাইনমেন্টের প্রধান জ্যান লেইকের মতে, এআই সিস্টেমগুলি শুধুমাত্র 2010-এর দশকে সক্ষম হয়েছে, এটা বোধগম্য যে বেশিরভাগ AI অ্যালাইনমেন্ট গবেষণা তত্ত্ব-ভারী ছিল। যখন অত্যন্ত শক্তিশালী AI সিস্টেমগুলি সারিবদ্ধ করা হয়, তখন মানুষ যে চ্যালেঞ্জগুলির মুখোমুখি হয় তা হল এই মেশিনগুলি এমন সমাধানগুলি তৈরি করতে পারে যা পর্যালোচনা করা এবং মূল্যায়ন করা খুব জটিল যদি তারা নৈতিকভাবে উপলব্ধি করে।

    Leike এই সমস্যা সমাধানের জন্য একটি রিকার্সিভ রিওয়ার্ড মডেলিং (RRM) কৌশল তৈরি করেছে। RRM-এর সাহায্যে, অনেক "সহায়ক" AI শেখানো হয় যাতে একজন মানুষকে আরও জটিল এআই কতটা ভালো কাজ করে তা মূল্যায়ন করতে সাহায্য করে। তিনি এমন কিছু তৈরি করার সম্ভাবনা সম্পর্কে আশাবাদী যাকে তিনি "সারিবদ্ধ MVP" হিসাবে উল্লেখ করেন। স্টার্টআপ পদে, একটি MVP (বা ন্যূনতম কার্যকর পণ্য) হল সবচেয়ে সহজ সম্ভাব্য পণ্য যা একটি কোম্পানি একটি ধারণা পরীক্ষা করার জন্য তৈরি করতে পারে। আশা করা যায় যে কোনো দিন, AI AI গবেষণার ক্ষেত্রে মানুষের কর্মক্ষমতার সাথে মিলে যায় এবং এটি কার্যকরী থাকাকালীন মানগুলির সাথে সারিবদ্ধ করা হয়।

    যদিও এআই সারিবদ্ধকরণের প্রতি আগ্রহ বৃদ্ধি একটি নেট ইতিবাচক, তবে ক্ষেত্রের অনেক বিশ্লেষক মনে করেন যে নেতৃস্থানীয় AI ল্যাবগুলিতে বেশিরভাগ "নৈতিকতা" কাজ শুধুমাত্র প্রযুক্তি কোম্পানিগুলিকে সুন্দর দেখাতে এবং নেতিবাচক প্রচার এড়াতে ডিজাইন করা জনসংযোগ। এই ব্যক্তিরা আশা করেন না যে নৈতিক বিকাশের অনুশীলনগুলি শীঘ্রই এই কোম্পানিগুলির জন্য একটি অগ্রাধিকার হয়ে উঠবে।

    এই পর্যবেক্ষণগুলি মান সারিবদ্ধকরণ প্রচেষ্টার জন্য আন্তঃবিভাগীয় পদ্ধতির গুরুত্ব তুলে ধরে, কারণ এটি নৈতিক এবং প্রযুক্তিগত অনুসন্ধানের একটি অপেক্ষাকৃত নতুন ক্ষেত্র। জ্ঞানের বিভিন্ন শাখা একটি অন্তর্ভুক্তিমূলক গবেষণা এজেন্ডার অংশ হওয়া উচিত। এই উদ্যোগটি প্রযুক্তিবিদ এবং নীতিনির্ধারকদের তাদের সামাজিক প্রেক্ষাপট এবং স্টেকহোল্ডারদের সম্পর্কে সচেতন থাকার প্রয়োজনীয়তার দিকেও নির্দেশ করে, এমনকি এআই সিস্টেমগুলি আরও উন্নত হয়ে উঠছে।

    AI প্রান্তিককরণের প্রভাব

    AI প্রান্তিককরণের বিস্তৃত প্রভাব অন্তর্ভুক্ত হতে পারে: 

    • কৃত্রিম বুদ্ধিমত্তা ল্যাবগুলি প্রকল্পের তদারকি করতে এবং নৈতিক AI নির্দেশিকাগুলি পূরণ করতে বিভিন্ন নীতিশাস্ত্র বোর্ড নিয়োগ করে৷ 
    • সরকারগুলি এমন আইন তৈরি করে যার জন্য কোম্পানিগুলিকে তাদের দায়িত্বশীল AI কাঠামো জমা দিতে হবে এবং কীভাবে তারা তাদের AI প্রকল্পগুলি আরও বিকাশের পরিকল্পনা করে।
    • নিয়োগ, পাবলিক নজরদারি এবং আইন প্রয়োগে অ্যালগরিদম ব্যবহার নিয়ে বিতর্ক বেড়েছে।
    • নৈতিকতা এবং কর্পোরেট লক্ষ্যগুলির মধ্যে স্বার্থের দ্বন্দ্বের কারণে গবেষকদের বড় AI ল্যাব থেকে বহিষ্কার করা হচ্ছে।
    • সরকারগুলিকে উন্নত AI সিস্টেমগুলি নিয়ন্ত্রণ করার জন্য আরও চাপ যা উভয়ই অবিশ্বাস্যভাবে শক্তিশালী কিন্তু সম্ভাব্যভাবে মানবাধিকার লঙ্ঘন করতে পারে।

    মন্তব্য করার জন্য প্রশ্ন

    • কীভাবে সংস্থাগুলিকে তারা তৈরি করা AI সিস্টেমগুলির জন্য জবাবদিহি করতে পারে?
    • AI ভুলভাবে সাজানো থাকলে অন্যান্য সম্ভাব্য বিপদগুলি কী কী?

    অন্তর্দৃষ্টি রেফারেন্স

    এই অন্তর্দৃষ্টির জন্য নিম্নলিখিত জনপ্রিয় এবং প্রাতিষ্ঠানিক লিঙ্কগুলি উল্লেখ করা হয়েছে: