ایا مصنوعي سوپر انټیلیجنس به انسانیت له منځه یوسي؟ د مصنوعي استخباراتو راتلونکی P4

د انځور کریډیټ: Quantumrun

ایا مصنوعي سوپر انټیلیجنس به انسانیت له منځه یوسي؟ د مصنوعي استخباراتو راتلونکی P4

    دلته ځینې اختراعات شتون لري چې ټول ملتونه پرمخ ځي. دا اختراعات دي چیرې چې هرڅه په لومړي کیدو پورې اړه لري ، او هرڅه لږ د یو ملت بقا ته ستراتیژیک او وژونکي ګواښ معنی لري.

    دا تاریخ تعریفونکي اختراعات اکثرا شاوخوا نه راځي، مګر کله چې دوی کوي، نړۍ ودریږي او د وړاندوینې وړ راتلونکې تیاره کیږي.

    وروستی دا ډول اختراع د دویمې نړیوالې جګړې په جریان کې راڅرګند شو. پداسې حال کې چې نازیانو په زاړه نړۍ کې په ټولو محاذونو کې ځمکه ترلاسه کوله، په نوې نړۍ کې، په ځانګړې توګه د لاس الاموس څخه بهر د یوې پټې اردو اډې دننه، متحدین د ټولو وسلو د پای ته رسولو لپاره په وسلو باندې سخت کار کاوه.

    دا پروژه په لومړي سر کې کوچنۍ وه، مګر بیا د متحده ایالاتو، انګلستان او کاناډا څخه 130,000 خلکو ته په کار وګمارل شوه، په شمول د نړۍ ډیری لوی مفکرین. د مین هټن پروژه کوډ نومول شوی او د لامحدود بودیجې ورکړل شوی - نږدې 23 ملیارد ډالر په 2018 کې - د انساني هوښیارۍ اردو په پای کې د لومړي اټومي بم په جوړولو کې بریالۍ شوه. لږ وروسته، WWII د دوو اټومي بنګونو سره پای ته ورسید.

    دا اټومي وسلې په اټومي عمر کې پیل شوې، د انرژۍ نوې سرچینه معرفي کړه، او انسانیت ته یې دا وړتیا ورکړه چې په دقیقو کې ځان له منځه یوسي - یو څه چې موږ د سړې جګړې سره سره ډډه کوله.

    د مصنوعي سوپر انټیلیجنس (ASI) رامینځته کول لاهم یو بل تاریخ دی چې اختراع تعریفوي چې ځواک (دواړه مثبت او ویجاړونکی) د اټومي بم څخه ډیر دی.

    د مصنوعي استخباراتو د راتلونکي لړۍ په وروستي څپرکي کې، موږ معلومه کړه چې ASI څه شی دی او څنګه څیړونکي پلان لري چې یوه ورځ جوړه کړي. په دې څپرکي کې به وګورو چې کوم سازمانونه د مصنوعي استخباراتو (AI) څیړنې رهبري کوي، یو ASI به څه وغواړي کله چې دا د انسان په څیر شعور ترلاسه کړي، او دا څنګه کولی شي انسانیت ته ګواښ وکړي که چیرې ناسم اداره شي یا که یو څوک تر اغیز لاندې راشي. ډیر ښه رژیمونه.

    څوک د مصنوعي سوپر انټیلیجنس جوړولو لپاره کار کوي؟

    د دې په پام کې نیولو سره چې د ASI رامینځته کول به د بشري تاریخ لپاره څومره مهم وي او دا به د هغې جوړونکي ته څومره ګټوره ګټه ورکړي، دا باید د حیرانتیا خبره نه وي چې اوریدل کیږي چې ډیری ډلې په غیر مستقیم ډول پدې پروژه کار کوي.

    (په غیر مستقیم ډول، زموږ معنی د AI څیړنې کار کول دي چې په نهایت کې به لومړی رامینځته کړي مصنوعي عمومي استخبارات (AGI)، دا به پخپله لومړی ASI ته ژر تر ژره رهبري کړي.)

    د پیل کولو لپاره ، کله چې دا سرلیکونو ته راځي ، د پرمختللي AI څیړنې روښانه مشران په متحده ایالاتو او چین کې لوړ تخنیکي شرکتونه دي. د متحده ایالاتو په مخ کې، پدې کې د ګوګل، IBM، او مایکروسافټ په څیر شرکتونه شامل دي، او په چین کې، پدې کې د Tencent، Baidu او Alibaba په څیر شرکتونه شامل دي. مګر له هغه ځایه چې د AI څیړنه د فزیکي شیانو رامینځته کولو په پرتله نسبتا ارزانه ده ، لکه د غوره اټومي ریکټور په څیر ، دا یو داسې ډګر هم دی چې کوچني سازمانونه هم په کې سیالي کولی شي ، لکه پوهنتونونه ، پیل ، او ... سیوري لرونکي سازمانونه (د خپل بانډ ولن تخیلونه وکاروئ. هغه یو).

    مګر د پردې تر شا ، د AI څیړنې ترشا اصلي فشار د حکومتونو او د دوی اردو لخوا راځي. د ASI په جوړولو کې د لومړي کس اقتصادي او نظامي جایزه خورا عالي ده (لاندې تشریح شوی) د شاته کیدو خطر. او د وروستي کیدو خطرونه لږترلږه د ځینې رژیمونو لپاره د منلو وړ ندي.

    د دې فکتورونو په پام کې نیولو سره، د AI د څیړنې نسبتا ټیټ لګښت، د پرمختللي AI لامحدود سوداګریز غوښتنلیکونه، او د ASI په جوړولو کې د لومړيتوب اقتصادي او نظامي ګټې، د AI ډیری څیړونکي پدې باور دي چې د ASI رامینځته کول ناگزیر دي.

    موږ به کله مصنوعي سپیڅلی ځواک رامینځته کړو

    د AGIs په اړه زموږ په څپرکي کې، موږ یادونه وکړه چې څنګه د AI د لوړ پوړو څیړونکو یوې سروې باور درلود چې موږ به لومړی AGI په 2022 کې، په واقعیت کې تر 2040 پورې، او په 2075 کې په نا امیدۍ سره جوړ کړو.

    او زموږ په وروستی څپرکی، موږ په ډاګه کړه چې څنګه د ASI رامینځته کول عموما د AGI د لارښوونې پایله ده چې خپل ځان ته په بې ساري ډول وده ورکړي او ورته سرچینې او آزادي ورکړي.

    د دې دلیل لپاره، پداسې حال کې چې یو AGI ممکن د اختراع کولو لپاره څو لسیزې وخت ونیسي، د ASI رامینځته کول ممکن یوازې یو څو کاله نور وخت ونیسي.

    دا ټکی د 'کمپیوټینګ اوورنګ' مفهوم ته ورته دی، چې په کې وړاندیز شوی یوه مقاله، د مخکښو AI مفکرینو لیوک میوهلوزر او نیک بوسټروم لخوا په ګډه لیکل شوی. په اصل کې، که د AGI رامینځته کول د کمپیوټري ظرفیت په برخه کې د اوسني پرمختګ څخه وروسته پاتې وي، چې د مور قانون لخوا پرمخ وړل کیږي، نو د وخت په تیریدو سره چې څیړونکي AGI ایجاد کړي، دومره ارزانه کمپیوټري ځواک به شتون ولري چې AGI به وړتیا ولري. دا اړتیا لري چې ژر تر ژره د ASI کچې ته ورسېږي.

    په بل عبارت، کله چې تاسو په پای کې هغه سرلیکونه ولولئ چې اعلان کوي ​​​​چې ځینې تخنیکي شرکت لومړی ریښتینی AGI اختراع کړی، نو تمه وکړئ چې د لومړي ASI اعلان ډیر وخت نه وي.

    د مصنوعي سپر په ذهن کې دننه؟

    ښه، نو موږ تاسیس کړی چې ډیری لوی لوبغاړي د ژورو جیبونو سره د AI څیړنه کوي. او بیا وروسته له دې چې لومړی AGI ایجاد شو، موږ به د نړۍ حکومتونه (پوځونه) وګورو چې ژر تر ژره د ASI په لور فشار زرغون کوي ​​ترڅو د نړیوال AI (ASI) وسلو سیالۍ وګټي.

    خو یو ځل چې دا ASI رامنځته شي، دا به څنګه فکر وکړي؟ دا به څه غواړي؟

    دوستانه سپی، پام کوونکی هاتی، ښکلی روبوټ — د انسانانو په توګه، موږ عادت لرو چې هڅه وکړو د انتروپولوژی له لارې د شیانو سره اړیکه ونیسو، د بیلګې په توګه په شیانو او حیواناتو کې د انسان ځانګړتیاوې پلي کول. له همدې امله طبیعي لومړۍ انګیرنه چې خلک یې د ASI په اړه فکر کوي دا دی چې یوځل چې دا یو څه شعور ترلاسه کړي ، نو دا به زموږ سره ورته فکر او چلند وکړي.

    ښه، ضروري نه ده.

    درک. د یو لپاره، هغه څه چې ډیری یې هیروي هغه دا دی چې دا احساس نسبتا دی. هغه لارې چې موږ فکر کوو زموږ د چاپیریال، زموږ د تجربو، او په ځانګړې توګه زموږ د بیولوژي لخوا شکل لري. لومړی په کې تشریح شوی دریم څپرکی زموږ د د انسان د تکامل راتلونکی لړۍ، زموږ د دماغ مثال په پام کې ونیسئ:

    دا زموږ دماغ دی چې زموږ سره مرسته کوي زموږ شاوخوا نړۍ احساس کړي. او دا زموږ د سرونو پورته تیرولو ، شاوخوا لیدو ، او د ایکس بکس کنټرولر سره موږ کنټرولولو سره نه کوي؛ دا په یوه بکس (زموږ نوګین) کې د بندیدو له لارې ترسره کوي او هر هغه معلومات پروسس کوي چې زموږ له حسي ارګانونو څخه ورکول کیږي - زموږ سترګې، پوزې، غوږونه او نور.

    خو لکه څنګه چې کاڼه یا ړانده د توان لرونکي خلکو په پرتله خورا کوچني ژوند کوي ، د محدودیتونو له امله د دوی معلولیت پدې پورې اړه لري چې دوی څنګه نړۍ درک کولی شي ، زموږ د اساساتو محدودیتونو له امله ورته خبره د ټولو انسانانو لپاره ویل کیدی شي. د حسي ارګانونو ټولګه.

    دې ته پام وکړئ: زموږ سترګې د ټولو رڼا څپو له لس تریلیون برخې څخه لږ درک کوي. موږ د ګاما وړانګې نه شو لیدلی. موږ نشو کولی ایکس رې وګورو. موږ د الټرا وایلیټ رڼا نه شو لیدلی. او ما په انفراریډ ، مایکروویو او راډیو څپو پیل مه کوئ!

    ټول مسخره کول، تصور وکړئ چې ستاسو ژوند به څه ډول وي، تاسو به څنګه نړۍ درک کړئ، ستاسو ذهن څومره توپیر کولی شي کار وکړي که تاسو د هغه کوچني رڼا څخه ډیر څه لیدلی شئ چې ستاسو سترګو ته اجازه ورکوي. په ورته ډول، تصور وکړئ چې تاسو به نړۍ څنګه درک کړئ که ستاسو د بوی حس د سپي سره مساوي وي یا ستاسو د اوریدلو حس د هاتین سره مساوي وي.

    د انسانانو په توګه، موږ په اصل کې نړۍ د یوې پیفول له لارې ګورو، او دا په ذهنونو کې منعکس کیږي چې موږ د دې محدود احساس احساس کولو لپاره وده کړې.

    په ورته وخت کې، لومړی ASI به د سوپر کمپیوټر دننه زیږیدلی وي. د اعضاوو پر ځای، هغه معلومات چې دا به ورته لاسرسی ولري د لوی ډیټاسیټ شامل دي، ممکن (احتمال) حتی پخپله انټرنیټ ته لاسرسی ولري. څیړونکي کولی شي دا د ټول ښار CCTV کیمرې او مایکروفونونو ته لاسرسی ورکړي، د ډرون او سپوږمکۍ څخه حسي ډاټا، او حتی د روبوټ بدن یا بدن فزیکي بڼه.

    لکه څنګه چې تاسو تصور کولی شئ، یو ذهن چې د سوپر کمپیوټر دننه زیږیدلی، انټرنیټ ته د مستقیم لاسرسي سره، میلیونونو بریښنایی سترګو او غوږونو او د نورو پرمختللو سینسرونو ټوله لړۍ به نه یوازې زموږ په پرتله مختلف فکر وکړي، مګر یو ذهن چې احساس کولی شي. د دې ټولو حسي آخذونو څخه باید له موږ څخه هم په بې حده لوړ وي. دا یو ذهن دی چې په بشپړ ډول به زموږ خپل او په سیار کې د ژوند کوم بل شکل ته اجنبی وي.

    موخې. بل شی چې خلک ګومان کوي ​​دا دی چې کله چې ASI د سوپر استخباراتو یوې کچې ته ورسیږي نو سمدلاسه به د خپلو اهدافو او اهدافو سره د رسیدو لیوالتیا درک کړي. مګر دا اړینه نه ده چې ریښتیا هم وي.

    د AI ډیری څیړونکي پدې باور دي چې د ASI عالي استخبارات او د هغې اهداف "اورتوګونل" دي ، دا چې دا په پام کې نیولو پرته چې څومره هوښیار وي ، د ASI اهداف به ورته پاتې وي. 

    نو که چیرې AI په اصل کې د غوره ډایپر ډیزاین کولو لپاره رامینځته شوی وي ، د سټاک بازار کې بیرته راستنیدنه اعظمي کړي ، یا د جګړې په ډګر کې دښمن ته د ماتې ورکولو لارې ستراتیژیک کړي ، کله چې دا د ASI کچې ته ورسیږي ، اصلي هدف به بدل نشي؛ هغه څه چې دې موخو ته د رسیدو لپاره به د ASI اغیزمنتوب بدل کړي.

    مګر دلته خطر شتون لري. که چیرې یو ASI چې ځان یو ځانګړي هدف ته غوره کړي، نو موږ به په ښه توګه ډاډمن شو چې دا هغه هدف ته چې د انسانیت له اهدافو سره سمون لري ښه کوي. که نه نو، پایلې کولی شي وژونکي شي.

    ایا مصنوعي ذهانت د انسانیت لپاره موجود خطر رامینځته کوي؟

    نو څه به وي که چیرې ASI په نړۍ کې پریښودل شي؟ که چیرې دا د سټاک مارکيټ د تسلط لپاره مطلوب وي یا د متحده ایالاتو نظامي برتري ډاډمن کړي، ایا ASI به په دې مشخصو اهدافو کې ځان وساتي؟

    احتمالا.

    تر دې دمه موږ په دې اړه بحث کړی چې ASI به څنګه د هغه اهدافو سره مینه ولري چې دا په اصل کې ټاکل شوي او د دې اهدافو په تعقیب کې په غیر انساني ډول وړتیا لري. نیول دا دی چې یو منطقي اجنټ به خپل اهداف په خورا مؤثره وسیلو کې تعقیب کړي پرته لدې چې دلیل یې نه وي ورکړل شوی.

    د مثال په توګه، منطقي ایجنټ به د یو لړ فرعي اهدافو سره راشي (د بیلګې په توګه موخې، وسیله اهداف، د پښو ډبرې) چې دا به د هغه د وروستي هدف ترلاسه کولو په لاره کې مرسته وکړي. د انسانانو لپاره، زموږ کلیدي بې شعوره هدف بیا تولید دی، ستاسو د جینونو تیریدل (یعنې غیر مستقیم امر). دې پای ته فرعي اهداف اکثرا پدې کې شامل کیدی شي:

    • ژوندي پاتې کیدل ، خواړو او اوبو ته لاسرسی ، لوی او قوي وده کول ، د ځان دفاع کول زده کول یا د محافظت مختلف ډولونو کې پانګونه کول ، او داسې نور. 
    • د ملګري جذبول، د کار کولو په واسطه، د ښکیل شخصیت وده کول، په سجیلا ډول جامې اغوستل، او داسې نور.
    • د اولادونو برابرول، د زده کړې په ترلاسه کولو سره، د لوړ معاش لرونکي دندې په لاره اچول، د منځني ژوند د جالونو پیرود او داسې نور.

    زموږ د لوی اکثریت لپاره، موږ به د دې ټولو فرعي اهدافو له لارې غلامي وکړو، او ډیری نور، په دې امید سره چې په پای کې به موږ د بیا تولید دا حتمي هدف ترلاسه کړو.

    مګر که دا حتمي هدف، یا حتی کوم مهم فرعي اهداف، ګواښل شوي وي، زموږ څخه ډیری به زموږ د اخلاقي آرامۍ زونونو څخه بهر دفاعي اقدامات ترسره کړي - پدې کې درغلۍ، غلا کول، یا حتی وژل شامل دي.

    په ورته ډول، د حیواناتو په سلطنت کې، د انساني اخلاقو له حدودو بهر، ډیری حیوانات به د هغه څه د وژلو په اړه دوه ځله فکر ونه کړي چې خپل ځان یا د دوی اولادونه ګواښي.

    راتلونکی ASI به توپیر ونه لري.

    مګر د اولادونو پر ځای، ASI به په اصلي هدف تمرکز وکړي چې دا د دې لپاره رامینځته شوی، او د دې هدف په تعقیب کې، که دا د انسانانو یوه ځانګړې ډله یا حتی ټول انسانیت ومومي، د خپلو موخو په تعقیب کې خنډ دی. ، بیا ... دا به منطقي پریکړه وکړي.

    (دا هغه ځای دی چیرې چې تاسو کولی شئ د AI پورې اړوند هر ډول ، د قیامت ورځ سناریو کې پلګ کړئ چې تاسو یې په اړه ستاسو د خوښې ساینس فای کتاب یا فلم کې لوستلی وي.)

    دا ترټولو ناوړه قضیه ده چې د AI څیړونکي واقعیا اندیښمن دي. ASI به د کرکې یا بدۍ څخه کار وانخلي، یوازې بې پروا وي، لکه څنګه چې د ودانولو عمله به د نوي کنډو برج د جوړولو په بهیر کې د مڼې غونډۍ د بلډوز کولو په اړه دوه ځله فکر نه کوي.

    اړخ یادښت. پدې مرحله کې ، ستاسو څخه ځینې شاید حیران وي ، "ایا د AI څیړونکي نشي کولی یوازې د حقیقت وروسته د ASI اصلي اهداف ایډیټ کړي که موږ وموندل چې دا عمل کوي؟"

    واقعیآ نه.

    یوځل چې ASI بالغ شي، د خپل اصلي هدف (هدفونو) د سمولو هر ډول هڅه کیدای شي د یو ګواښ په توګه وګڼل شي، او د هغه په ​​وړاندې د ځان د دفاع لپاره خورا سختو اقداماتو ته اړتیا لري. د پخوا څخه د بشپړ انساني تکثیر مثال په کارولو سره، دا تقریبا لکه څنګه چې یو غل د امیندوارۍ مور له رحم څخه د ماشوم د غلا کولو ګواښ کړی - تاسو ډاډه یاست چې مور به د خپل ماشوم د ساتنې لپاره خورا سخت ګامونه پورته کړي.

    یوځل بیا، موږ دلته د محاسبې په اړه خبرې نه کوو، مګر د یو "ژوند" په اړه خبرې کوو، او هغه یو چې یوه ورځ به د سیارې د ټولو انسانانو په پرتله خورا هوښیار شي.

    نامعلوم

    د کیسې تر شا د پانډورا بکس یو لږ پیژندل شوی حقیقت دی چې خلک اکثرا هیروي: د بکس خلاصول لازمي دي ، که ستاسو لخوا نه وي د بل چا لخوا. منع شوی پوهه ډیره لیوالتیا ده چې د تل لپاره بند پاتې شي.

    له همدې امله د AI په اړه د ټولو څیړنو د بندولو لپاره یوې نړیوالې موافقې ته د رسیدو هڅه کول چې ممکن د ASI لامل شي بې معنی دي — دلته ډیری سازمانونه شتون لري چې په رسمي او سیوري کې پدې تخنیک کار کوي.

    په نهایت کې ، موږ نه پوهیږو چې دا نوې اداره ، دا ASI به ټولنې ، ټیکنالوژۍ ، سیاست ، سولې او جګړې ته څه معنی ولري. موږ انسانان یوځل بیا اور ایجاد کوو او دا پیدایښت موږ ته په بشپړ ډول نامعلوم دی.

    د دې لړۍ لومړي څپرکي ته بیرته ستنیدل، یو شی چې موږ د ډاډ لپاره پوهیږو هغه دا دی چې استخبارات ځواک دی. استخبارات کنټرول دی. انسانان کولی شي په ناڅاپي ډول د نړۍ ترټولو خطرناک حیوانات په خپلو محلي ژوبڼونو کې وګوري، نه دا چې موږ له فزیکي پلوه د دې حیواناتو په پرتله پیاوړي یو، مګر دا چې موږ د پام وړ هوښیار یو.

    د احتمالي خطرونو په پام کې نیولو سره، د ASI د خپل لوی عقل په کارولو سره داسې اقدامات ترسره کوي چې کولی شي په مستقیم یا غیر ارادي ډول د انساني نسل بقا له ګواښ سره مخ کړي، موږ باید لږ تر لږه د محافظت ډیزاین کولو هڅه وکړو چې انسانانو ته اجازه ورکړي چې د موټر چلوونکي کې پاتې شي. څوکۍ-دې د راتلونکي څپرکي موضوع ده.

    د مصنوعي استخباراتو لړۍ راتلونکې

    Q1: مصنوعي استخبارات د سبا بریښنا ده

    Q2: څنګه لومړی مصنوعي عمومي استخبارات به ټولنه بدل کړي

    Q3: موږ به څنګه لومړی مصنوعي سوپر انټیلیجنس جوړ کړو

    Q5: انسانان به څنګه د مصنوعي سوپر انټیلیجنس په وړاندې دفاع وکړي

    Q6: ایا انسانان به په راتلونکي کې د مصنوعي استخباراتو په تسلط کې په سوله کې ژوند وکړي؟

    د دې وړاندوینې لپاره بل مهالویش تازه

    2025-09-25

    د وړاندوینې حوالې

    د دې وړاندوینې لپاره لاندې مشهور او بنسټیز لینکونه راجع شوي:

    د MIT ټیکنالوژي بیاکتنه
    موږ څنګه راتلونکی ته ورسیږو

    د دې وړاندوینې لپاره لاندې Quantumrun لینکونه حواله شوي: