ਮਨੁੱਖ ਇੱਕ ਨਕਲੀ ਸੂਪਰ ਇੰਟੈਲੀਜੈਂਸ ਤੋਂ ਕਿਵੇਂ ਬਚਾਅ ਕਰਨਗੇ: ਨਕਲੀ ਬੁੱਧੀ ਦਾ ਭਵਿੱਖ P5

ਚਿੱਤਰ ਕ੍ਰੈਡਿਟ: ਕੁਆਂਟਮਰਨ

ਮਨੁੱਖ ਇੱਕ ਨਕਲੀ ਸੂਪਰ ਇੰਟੈਲੀਜੈਂਸ ਤੋਂ ਕਿਵੇਂ ਬਚਾਅ ਕਰਨਗੇ: ਨਕਲੀ ਬੁੱਧੀ ਦਾ ਭਵਿੱਖ P5

    ਸਾਲ 65,000 ਈਸਾ ਪੂਰਵ ਹੈ, ਅਤੇ ਏ ਥਾਈਲੈਕੋਲੀਓ, ਤੁਸੀਂ ਅਤੇ ਤੁਹਾਡੀ ਕਿਸਮ ਪ੍ਰਾਚੀਨ ਆਸਟ੍ਰੇਲੀਆ ਦੇ ਮਹਾਨ ਸ਼ਿਕਾਰੀ ਸਨ। ਤੁਸੀਂ ਜ਼ਮੀਨ 'ਤੇ ਖੁੱਲ੍ਹ ਕੇ ਘੁੰਮਦੇ ਰਹੇ ਅਤੇ ਸਾਥੀ ਸ਼ਿਕਾਰੀਆਂ ਅਤੇ ਸ਼ਿਕਾਰਾਂ ਨਾਲ ਸੰਤੁਲਨ ਵਿੱਚ ਰਹਿੰਦੇ ਹੋ ਜੋ ਤੁਹਾਡੇ ਨਾਲ ਜ਼ਮੀਨ 'ਤੇ ਕਬਜ਼ਾ ਕਰ ਲੈਂਦੇ ਹਨ। ਰੁੱਤਾਂ ਨੇ ਤਬਦੀਲੀ ਲਿਆਂਦੀ, ਪਰ ਜਾਨਵਰਾਂ ਦੇ ਰਾਜ ਵਿੱਚ ਤੁਹਾਡੀ ਸਥਿਤੀ ਉਦੋਂ ਤੱਕ ਚੁਣੌਤੀ ਰਹਿਤ ਰਹੀ ਜਦੋਂ ਤੱਕ ਤੁਸੀਂ ਅਤੇ ਤੁਹਾਡੇ ਪੂਰਵਜ ਯਾਦ ਰੱਖ ਸਕਦੇ ਸਨ। ਫਿਰ ਇੱਕ ਦਿਨ, ਨਵੇਂ ਆਏ ਦਿਖਾਈ ਦਿੱਤੇ.

    ਅਫਵਾਹ ਹੈ ਕਿ ਉਹ ਪਾਣੀ ਦੀ ਵਿਸ਼ਾਲ ਕੰਧ ਤੋਂ ਆਏ ਸਨ, ਪਰ ਇਹ ਜੀਵ ਜ਼ਮੀਨ 'ਤੇ ਰਹਿਣ ਵਿਚ ਵਧੇਰੇ ਆਰਾਮਦਾਇਕ ਜਾਪਦੇ ਸਨ। ਤੁਸੀਂ ਆਪਣੇ ਲਈ ਇਹ ਜੀਵ ਵੇਖਣੇ ਸਨ.

    ਇਸ ਵਿੱਚ ਕੁਝ ਦਿਨ ਲੱਗ ਗਏ, ਪਰ ਤੁਸੀਂ ਅੰਤ ਵਿੱਚ ਇਸ ਨੂੰ ਤੱਟ ਤੱਕ ਪਹੁੰਚਾ ਦਿੱਤਾ। ਅਸਮਾਨ ਵਿੱਚ ਅੱਗ ਲੱਗ ਰਹੀ ਸੀ, ਇਹਨਾਂ ਪ੍ਰਾਣੀਆਂ ਦੀ ਜਾਸੂਸੀ ਕਰਨ ਦਾ ਇੱਕ ਵਧੀਆ ਸਮਾਂ, ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਇਹ ਦੇਖਣ ਲਈ ਇੱਕ ਖਾਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰੋ ਕਿ ਉਹਨਾਂ ਦਾ ਸੁਆਦ ਕਿਵੇਂ ਹੈ.

    ਤੁਸੀਂ ਇੱਕ ਲੱਭੋ.

    ਇਹ ਦੋ ਲੱਤਾਂ 'ਤੇ ਚੱਲਦਾ ਸੀ ਅਤੇ ਇਸਦੀ ਕੋਈ ਫਰ ਨਹੀਂ ਸੀ। ਇਹ ਕਮਜ਼ੋਰ ਲੱਗ ਰਿਹਾ ਸੀ। ਬੇਪਰਵਾਹ. ਸ਼ਾਇਦ ਹੀ ਇਹ ਰਾਜ ਦੇ ਵਿਚਕਾਰ ਡਰ ਪੈਦਾ ਕਰ ਰਿਹਾ ਸੀ.

    ਤੁਸੀਂ ਆਪਣੀ ਪਹੁੰਚ ਨੂੰ ਧਿਆਨ ਨਾਲ ਬਣਾਉਣਾ ਸ਼ੁਰੂ ਕਰ ਦਿੰਦੇ ਹੋ ਕਿਉਂਕਿ ਰਾਤ ਰੌਸ਼ਨੀ ਨੂੰ ਦੂਰ ਕਰਦੀ ਹੈ। ਤੁਸੀਂ ਨੇੜੇ ਆ ਰਹੇ ਹੋ। ਫਿਰ ਤੁਸੀਂ ਫ੍ਰੀਜ਼ ਕਰੋ. ਉੱਚੀ-ਉੱਚੀ ਆਵਾਜ਼ ਆਉਂਦੀ ਹੈ ਅਤੇ ਫਿਰ ਉਨ੍ਹਾਂ ਵਿਚੋਂ ਚਾਰ ਹੋਰ ਇਸਦੇ ਪਿੱਛੇ ਜੰਗਲ ਵਿਚੋਂ ਬਾਹਰ ਨਿਕਲਦੇ ਹਨ। ਕਿੰਨੇ ਹਨ?

    ਜੀਵ ਦੂਸਰਿਆਂ ਦੇ ਪਿੱਛੇ ਰੁੱਖ ਦੀ ਲਾਈਨ ਵਿੱਚ ਆਉਂਦਾ ਹੈ, ਅਤੇ ਤੁਸੀਂ ਪਾਲਣਾ ਕਰਦੇ ਹੋ। ਅਤੇ ਜਿੰਨਾ ਜ਼ਿਆਦਾ ਤੁਸੀਂ ਕਰਦੇ ਹੋ, ਓਨੀਆਂ ਹੀ ਅਜੀਬ ਆਵਾਜ਼ਾਂ ਤੁਸੀਂ ਸੁਣਦੇ ਹੋ ਜਦੋਂ ਤੱਕ ਤੁਸੀਂ ਇਹਨਾਂ ਪ੍ਰਾਣੀਆਂ ਵਿੱਚੋਂ ਹੋਰ ਵੀ ਨਹੀਂ ਲੱਭ ਲੈਂਦੇ. ਤੁਸੀਂ ਇੱਕ ਦੂਰੀ 'ਤੇ ਚੱਲਦੇ ਹੋ ਕਿਉਂਕਿ ਉਹ ਜੰਗਲ ਤੋਂ ਬਾਹਰ ਨਿਕਲਦੇ ਹਨ ਕਿਨਾਰੇ ਦੁਆਰਾ ਇੱਕ ਕਲੀਅਰਿੰਗ ਵਿੱਚ. ਉਨ੍ਹਾਂ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੇ ਹਨ। ਪਰ ਇਸ ਤੋਂ ਵੀ ਮਹੱਤਵਪੂਰਨ, ਉਹ ਸਾਰੇ ਸ਼ਾਂਤੀ ਨਾਲ ਅੱਗ ਦੇ ਦੁਆਲੇ ਬੈਠੇ ਹਨ.

    ਤੁਸੀਂ ਪਹਿਲਾਂ ਵੀ ਇਹ ਅੱਗਾਂ ਦੇਖੀਆਂ ਹੋਣਗੀਆਂ। ਗਰਮੀ ਦੇ ਮੌਸਮ ਵਿੱਚ, ਅਸਮਾਨ ਵਿੱਚ ਅੱਗ ਕਈ ਵਾਰੀ ਜ਼ਮੀਨ ਨੂੰ ਆ ਜਾਂਦੀ ਹੈ ਅਤੇ ਸਾਰੇ ਜੰਗਲਾਂ ਨੂੰ ਸਾੜ ਦਿੰਦੀ ਹੈ। ਦੂਜੇ ਪਾਸੇ ਇਹ ਜੀਵ ਕਿਸੇ ਨਾ ਕਿਸੇ ਤਰ੍ਹਾਂ ਇਸ ਨੂੰ ਕਾਬੂ ਕਰ ਰਹੇ ਸਨ। ਕਿਹੋ ਜਿਹੇ ਜੀਵ ਅਜਿਹੀ ਸ਼ਕਤੀ ਦੇ ਮਾਲਕ ਹੋ ਸਕਦੇ ਹਨ?

    ਤੁਸੀਂ ਦੂਰੀ ਵਿੱਚ ਦੇਖੋ। ਹੋਰ ਪਾਣੀ ਦੀ ਵਿਸ਼ਾਲ ਕੰਧ ਦੇ ਉੱਪਰ ਆ ਰਹੇ ਹਨ.

    ਤੁਸੀਂ ਇੱਕ ਕਦਮ ਪਿੱਛੇ ਹਟ ਜਾਓ।

    ਇਹ ਜੀਵ ਰਾਜ ਵਿੱਚ ਹੋਰਾਂ ਵਰਗੇ ਨਹੀਂ ਹਨ। ਉਹ ਬਿਲਕੁਲ ਨਵੀਂ ਚੀਜ਼ ਹਨ।

    ਤੁਸੀਂ ਆਪਣੇ ਰਿਸ਼ਤੇਦਾਰਾਂ ਨੂੰ ਛੱਡਣ ਅਤੇ ਚੇਤਾਵਨੀ ਦੇਣ ਦਾ ਫੈਸਲਾ ਕਰਦੇ ਹੋ। ਜੇ ਉਨ੍ਹਾਂ ਦੀ ਗਿਣਤੀ ਬਹੁਤ ਵੱਧ ਜਾਂਦੀ ਹੈ, ਤਾਂ ਕੌਣ ਜਾਣਦਾ ਹੈ ਕਿ ਕੀ ਹੋ ਸਕਦਾ ਹੈ.

    ***

    ਇਹ ਵਿਸ਼ਵਾਸ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਕਿ ਥਾਈਲਾਕੋਲੀਓ ਮਨੁੱਖਾਂ ਦੇ ਆਉਣ ਤੋਂ ਬਾਅਦ ਮੁਕਾਬਲਤਨ ਥੋੜ੍ਹੇ ਸਮੇਂ ਬਾਅਦ, ਆਸਟ੍ਰੇਲੀਅਨ ਮਹਾਂਦੀਪ ਦੇ ਹੋਰ ਮੈਗਾਫੌਨਾ ਦੇ ਨਾਲ-ਨਾਲ ਅਲੋਪ ਹੋ ਗਿਆ ਸੀ। ਕੋਈ ਹੋਰ ਚੋਟੀ ਦੇ ਥਣਧਾਰੀ ਸ਼ਿਕਾਰੀ ਨੇ ਇਸਦੀ ਜਗ੍ਹਾ ਨਹੀਂ ਲਈ - ਇਹ ਉਦੋਂ ਤੱਕ ਹੈ ਜਦੋਂ ਤੱਕ ਤੁਸੀਂ ਉਸ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਮਨੁੱਖਾਂ ਦੀ ਗਿਣਤੀ ਨਹੀਂ ਕਰਦੇ।

    ਇਸ ਰੂਪਕ ਨੂੰ ਬੰਦ ਕਰਨਾ ਇਸ ਲੜੀ ਦੇ ਅਧਿਆਇ ਦਾ ਧਿਆਨ ਹੈ: ਕੀ ਭਵਿੱਖ ਵਿੱਚ ਇੱਕ ਨਕਲੀ ਸੂਪਰ ਇੰਟੈਲੀਜੈਂਸ (ASI) ਸਾਨੂੰ ਸਭ ਨੂੰ ਬੈਟਰੀਆਂ ਵਿੱਚ ਬਦਲ ਦੇਵੇਗਾ ਅਤੇ ਫਿਰ ਸਾਨੂੰ ਮੈਟ੍ਰਿਕਸ ਵਿੱਚ ਜੋੜ ਦੇਵੇਗਾ ਜਾਂ ਕੀ ਮਨੁੱਖ ਵਿਗਿਆਨ-ਫਾਈ ਦਾ ਸ਼ਿਕਾਰ ਹੋਣ ਤੋਂ ਬਚਣ ਦਾ ਕੋਈ ਤਰੀਕਾ ਲੱਭੇਗਾ, ਏਆਈ ਕਿਆਮਤ ਦੇ ਦਿਨ ਦੀ ਸਾਜਿਸ਼?

    ਹੁਣ ਤੱਕ 'ਤੇ ਸਾਡੀ ਲੜੀ ਵਿੱਚ ਨਕਲੀ ਬੁੱਧੀ ਦਾ ਭਵਿੱਖ, ਅਸੀਂ ਹਰ ਕਿਸਮ ਦੇ AI ਦੀ ਪੜਚੋਲ ਕੀਤੀ ਹੈ, ਜਿਸ ਵਿੱਚ AI ਦੇ ਇੱਕ ਵਿਸ਼ੇਸ਼ ਰੂਪ ਦੀ ਸਕਾਰਾਤਮਕ ਸੰਭਾਵਨਾ ਸ਼ਾਮਲ ਹੈ, ASI: ਇੱਕ ਨਕਲੀ ਜੀਵ ਜਿਸਦੀ ਭਵਿੱਖ ਦੀ ਬੁੱਧੀ ਸਾਨੂੰ ਤੁਲਨਾ ਵਿੱਚ ਕੀੜੀਆਂ ਵਾਂਗ ਦਿਖਾਈ ਦੇਵੇਗੀ।

    ਪਰ ਕੌਣ ਕਹਿਣਾ ਹੈ ਕਿ ਇਹ ਸਮਾਰਟ ਹੋਣ ਕਰਕੇ ਮਨੁੱਖਾਂ ਤੋਂ ਆਦੇਸ਼ਾਂ ਨੂੰ ਹਮੇਸ਼ਾ ਲਈ ਸਵੀਕਾਰ ਕਰੇਗਾ. ਜੇ ਚੀਜ਼ਾਂ ਦੱਖਣ ਵੱਲ ਜਾਂਦੀਆਂ ਹਨ ਤਾਂ ਅਸੀਂ ਕੀ ਕਰਾਂਗੇ? ਅਸੀਂ ਇੱਕ ਠੱਗ ASI ਤੋਂ ਕਿਵੇਂ ਬਚਾਵਾਂਗੇ?

    ਇਸ ਅਧਿਆਇ ਵਿੱਚ, ਅਸੀਂ ਜਾਅਲੀ ਪ੍ਰਚਾਰ ਨੂੰ ਘਟਾਵਾਂਗੇ - ਘੱਟੋ ਘੱਟ ਜਿਵੇਂ ਕਿ ਇਹ 'ਮਨੁੱਖੀ ਵਿਨਾਸ਼ ਦੇ ਪੱਧਰ' ਦੇ ਖ਼ਤਰਿਆਂ ਨਾਲ ਸਬੰਧਤ ਹੈ - ਅਤੇ ਵਿਸ਼ਵ ਸਰਕਾਰਾਂ ਲਈ ਉਪਲਬਧ ਯਥਾਰਥਵਾਦੀ ਸਵੈ-ਰੱਖਿਆ ਵਿਕਲਪਾਂ 'ਤੇ ਧਿਆਨ ਕੇਂਦਰਤ ਕਰਾਂਗੇ।

    ਕੀ ਅਸੀਂ ਇੱਕ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਵਿੱਚ ਹੋਰ ਖੋਜਾਂ ਨੂੰ ਰੋਕ ਸਕਦੇ ਹਾਂ?

    ਸੰਭਾਵੀ ਖਤਰਿਆਂ ਦੇ ਮੱਦੇਨਜ਼ਰ ਜੋ ਇੱਕ ASI ਮਨੁੱਖਤਾ ਲਈ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ, ਪੁੱਛਣ ਲਈ ਪਹਿਲਾ ਸਪੱਸ਼ਟ ਸਵਾਲ ਇਹ ਹੈ: ਕੀ ਅਸੀਂ AI ਬਾਰੇ ਹੋਰ ਖੋਜਾਂ ਨੂੰ ਰੋਕ ਨਹੀਂ ਸਕਦੇ? ਜਾਂ ਘੱਟੋ-ਘੱਟ ਕਿਸੇ ਵੀ ਖੋਜ ਨੂੰ ਮਨ੍ਹਾ ਕਰੋ ਜੋ ਸਾਨੂੰ ਖਤਰਨਾਕ ਤੌਰ 'ਤੇ ਏਐਸਆਈ ਬਣਾਉਣ ਦੇ ਨੇੜੇ ਲਿਆ ਸਕਦਾ ਹੈ?

    ਛੋਟਾ ਜਵਾਬ: ਨਹੀਂ.

    ਲੰਮਾ ਜਵਾਬ: ਆਓ ਇੱਥੇ ਸ਼ਾਮਲ ਵੱਖ-ਵੱਖ ਖਿਡਾਰੀਆਂ ਨੂੰ ਵੇਖੀਏ।

    ਖੋਜ ਪੱਧਰ 'ਤੇ, ਅੱਜ ਦੁਨੀਆ ਭਰ ਦੀਆਂ ਬਹੁਤ ਸਾਰੀਆਂ ਸਟਾਰਟਅੱਪਾਂ, ਕੰਪਨੀਆਂ ਅਤੇ ਯੂਨੀਵਰਸਿਟੀਆਂ ਤੋਂ ਬਹੁਤ ਸਾਰੇ AI ਖੋਜਕਰਤਾ ਹਨ। ਜੇ ਇੱਕ ਕੰਪਨੀ ਜਾਂ ਦੇਸ਼ ਨੇ ਆਪਣੇ ਏਆਈ ਖੋਜ ਯਤਨਾਂ ਨੂੰ ਸੀਮਤ ਕਰਨ ਦਾ ਫੈਸਲਾ ਕੀਤਾ, ਤਾਂ ਉਹ ਹੋਰ ਕਿਤੇ ਜਾਰੀ ਰਹਿਣਗੇ।

    ਇਸ ਦੌਰਾਨ, ਗ੍ਰਹਿ ਦੀਆਂ ਸਭ ਤੋਂ ਕੀਮਤੀ ਕੰਪਨੀਆਂ ਆਪਣੇ ਖਾਸ ਕਾਰੋਬਾਰਾਂ ਲਈ AI ਪ੍ਰਣਾਲੀਆਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਆਪਣੀ ਕਿਸਮਤ ਬਣਾ ਰਹੀਆਂ ਹਨ। ਉਹਨਾਂ ਨੂੰ AI ਟੂਲਸ ਦੇ ਉਹਨਾਂ ਦੇ ਵਿਕਾਸ ਨੂੰ ਰੋਕਣ ਜਾਂ ਸੀਮਤ ਕਰਨ ਲਈ ਕਹਿਣਾ ਉਹਨਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਭਵਿੱਖ ਦੇ ਵਿਕਾਸ ਨੂੰ ਰੋਕਣ ਜਾਂ ਸੀਮਤ ਕਰਨ ਲਈ ਕਹਿਣ ਦੇ ਸਮਾਨ ਹੈ। ਵਿੱਤੀ ਤੌਰ 'ਤੇ, ਇਸ ਨਾਲ ਉਨ੍ਹਾਂ ਦੇ ਲੰਬੇ ਸਮੇਂ ਦੇ ਕਾਰੋਬਾਰ ਨੂੰ ਖਤਰਾ ਪੈਦਾ ਹੋਵੇਗਾ। ਕਨੂੰਨੀ ਤੌਰ 'ਤੇ, ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਕੋਲ ਆਪਣੇ ਹਿੱਸੇਦਾਰਾਂ ਲਈ ਨਿਰੰਤਰ ਮੁੱਲ ਬਣਾਉਣ ਲਈ ਇੱਕ ਨਿਸ਼ਚਤ ਜ਼ਿੰਮੇਵਾਰੀ ਹੁੰਦੀ ਹੈ; ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕੋਈ ਵੀ ਕਾਰਵਾਈ ਜੋ ਉਸ ਮੁੱਲ ਦੇ ਵਾਧੇ ਨੂੰ ਸੀਮਤ ਕਰੇਗੀ, ਮੁਕੱਦਮੇ ਦੀ ਅਗਵਾਈ ਕਰ ਸਕਦੀ ਹੈ। ਅਤੇ ਜੇਕਰ ਕਿਸੇ ਸਿਆਸਤਦਾਨ ਨੇ AI ਖੋਜ ਨੂੰ ਸੀਮਤ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ, ਤਾਂ ਇਹ ਵਿਸ਼ਾਲ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਆਪਣੇ ਮਨ ਜਾਂ ਆਪਣੇ ਸਾਥੀਆਂ ਦੇ ਮਨਾਂ ਨੂੰ ਬਦਲਣ ਲਈ ਲੋੜੀਂਦੀ ਲਾਬਿੰਗ ਫੀਸਾਂ ਦਾ ਭੁਗਤਾਨ ਕਰਨਗੀਆਂ।

    ਲੜਾਈ ਲਈ, ਜਿਵੇਂ ਕਿ ਦੁਨੀਆ ਭਰ ਦੇ ਅੱਤਵਾਦੀਆਂ ਅਤੇ ਸੁਤੰਤਰਤਾ ਸੈਨਾਨੀਆਂ ਨੇ ਬਿਹਤਰ ਫੰਡ ਪ੍ਰਾਪਤ ਫੌਜਾਂ ਦੇ ਵਿਰੁੱਧ ਲੜਨ ਲਈ ਗੁਰੀਲਾ ਰਣਨੀਤੀਆਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਹੈ, ਛੋਟੇ ਰਾਸ਼ਟਰਾਂ ਨੂੰ ਵੱਡੀਆਂ ਕੌਮਾਂ ਦੇ ਵਿਰੁੱਧ ਇੱਕ ਸਮਾਨ ਰਣਨੀਤਕ ਲਾਭ ਵਜੋਂ AI ਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ ਪ੍ਰੇਰਣਾ ਮਿਲੇਗੀ ਜਿਸ ਦੇ ਕਈ ਫੌਜੀ ਫਾਇਦੇ ਹੋ ਸਕਦੇ ਹਨ। ਇਸੇ ਤਰ੍ਹਾਂ, ਚੋਟੀ ਦੀਆਂ ਫੌਜਾਂ ਲਈ, ਜਿਵੇਂ ਕਿ ਅਮਰੀਕਾ, ਰੂਸ ਅਤੇ ਚੀਨ ਨਾਲ ਸਬੰਧਤ, ਇੱਕ ਮਿਲਟਰੀ ਏਐਸਆਈ ਬਣਾਉਣਾ ਤੁਹਾਡੀ ਪਿਛਲੀ ਜੇਬ ਵਿੱਚ ਪ੍ਰਮਾਣੂ ਹਥਿਆਰਾਂ ਦੇ ਅਸਲੇ ਦੇ ਬਰਾਬਰ ਹੈ। ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਸਾਰੀਆਂ ਫੌਜਾਂ ਭਵਿੱਖ ਵਿੱਚ relevantੁਕਵੇਂ ਰਹਿਣ ਲਈ AI ਨੂੰ ਫੰਡ ਦੇਣਾ ਜਾਰੀ ਰੱਖਣਗੀਆਂ।

    ਸਰਕਾਰਾਂ ਬਾਰੇ ਕੀ? ਸੱਚਮੁੱਚ, ਅੱਜਕੱਲ੍ਹ (2018) ਜ਼ਿਆਦਾਤਰ ਸਿਆਸਤਦਾਨ ਤਕਨੀਕੀ ਤੌਰ 'ਤੇ ਅਨਪੜ੍ਹ ਹਨ ਅਤੇ AI ਕੀ ਹੈ ਜਾਂ ਇਸਦੀ ਭਵਿੱਖ ਦੀ ਸੰਭਾਵਨਾ ਬਾਰੇ ਬਹੁਤ ਘੱਟ ਸਮਝ ਰੱਖਦੇ ਹਨ - ਇਹ ਉਹਨਾਂ ਨੂੰ ਕਾਰਪੋਰੇਟ ਹਿੱਤਾਂ ਦੁਆਰਾ ਹੇਰਾਫੇਰੀ ਕਰਨਾ ਆਸਾਨ ਬਣਾਉਂਦਾ ਹੈ।

    ਅਤੇ ਵਿਸ਼ਵ ਪੱਧਰ 'ਤੇ, ਵਿਚਾਰ ਕਰੋ ਕਿ ਵਿਸ਼ਵ ਸਰਕਾਰਾਂ ਨੂੰ 2015 'ਤੇ ਦਸਤਖਤ ਕਰਨ ਲਈ ਮਨਾਉਣਾ ਕਿੰਨਾ ਮੁਸ਼ਕਲ ਸੀ ਪੈਰਿਸ ਸਮਝੌਤਾ ਜਲਵਾਯੂ ਪਰਿਵਰਤਨ ਨਾਲ ਨਜਿੱਠਣ ਲਈ—ਅਤੇ ਇੱਕ ਵਾਰ ਦਸਤਖਤ ਕੀਤੇ ਜਾਣ ਤੋਂ ਬਾਅਦ, ਬਹੁਤ ਸਾਰੀਆਂ ਜ਼ਿੰਮੇਵਾਰੀਆਂ ਵੀ ਬੰਧਨਯੋਗ ਨਹੀਂ ਸਨ। ਸਿਰਫ ਇਹ ਹੀ ਨਹੀਂ, ਜਲਵਾਯੂ ਪਰਿਵਰਤਨ ਇੱਕ ਮੁੱਦਾ ਹੈ ਜੋ ਲੋਕ ਸਰੀਰਕ ਤੌਰ 'ਤੇ ਵਿਸ਼ਵਵਿਆਪੀ ਤੌਰ 'ਤੇ ਵੱਧ ਰਹੇ ਅਕਸਰ ਅਤੇ ਗੰਭੀਰ ਮੌਸਮ ਦੀਆਂ ਘਟਨਾਵਾਂ ਦੁਆਰਾ ਅਨੁਭਵ ਕਰ ਰਹੇ ਹਨ। ਹੁਣ, ਜਦੋਂ AI 'ਤੇ ਸੀਮਾਵਾਂ ਲਈ ਸਹਿਮਤ ਹੋਣ ਬਾਰੇ ਗੱਲ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ, ਤਾਂ ਇਹ ਇੱਕ ਅਜਿਹਾ ਮੁੱਦਾ ਹੈ ਜੋ ਆਮ ਤੌਰ 'ਤੇ ਅਦਿੱਖ ਹੈ ਅਤੇ ਜਨਤਾ ਲਈ ਮੁਸ਼ਕਿਲ ਨਾਲ ਸਮਝਿਆ ਜਾ ਸਕਦਾ ਹੈ, ਇਸ ਲਈ AI ਨੂੰ ਸੀਮਤ ਕਰਨ ਲਈ ਕਿਸੇ ਵੀ ਕਿਸਮ ਦੇ 'ਪੈਰਿਸ ਸਮਝੌਤੇ' ਲਈ ਖਰੀਦ-ਇਨ ਪ੍ਰਾਪਤ ਕਰਨਾ ਚੰਗੀ ਕਿਸਮਤ ਹੈ।

    ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਕਿਸੇ ਵੀ ਖੋਜ ਨੂੰ ਰੋਕਣ ਲਈ ਆਪਣੇ ਸਿਰੇ ਲਈ AI ਦੀ ਖੋਜ ਕਰਨ ਵਿੱਚ ਬਹੁਤ ਸਾਰੀਆਂ ਦਿਲਚਸਪੀਆਂ ਹਨ ਜੋ ਆਖਰਕਾਰ ASI ਵੱਲ ਲੈ ਜਾ ਸਕਦੀਆਂ ਹਨ। 

    ਕੀ ਅਸੀਂ ਇੱਕ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਨੂੰ ਪਿੰਜਰੇ ਵਿੱਚ ਪਾ ਸਕਦੇ ਹਾਂ?

    ਅਗਲਾ ਵਾਜਬ ਸਵਾਲ ਇਹ ਹੈ ਕਿ ਜਦੋਂ ਅਸੀਂ ਲਾਜ਼ਮੀ ਤੌਰ 'ਤੇ ਇੱਕ ASI ਬਣਾ ਲੈਂਦੇ ਹਾਂ ਤਾਂ ਕੀ ਅਸੀਂ ਇੱਕ ASI ਨੂੰ ਪਿੰਜਰੇ ਜਾਂ ਕਾਬੂ ਕਰ ਸਕਦੇ ਹਾਂ? 

    ਛੋਟਾ ਜਵਾਬ: ਦੁਬਾਰਾ, ਨਹੀਂ।

    ਲੰਮਾ ਜਵਾਬ: ਤਕਨਾਲੋਜੀ ਨੂੰ ਸ਼ਾਮਲ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ।

    ਇੱਕ ਲਈ, ਦੁਨੀਆ ਦੇ ਹਜ਼ਾਰਾਂ ਤੋਂ ਲੱਖਾਂ ਵੈਬ ਡਿਵੈਲਪਰਾਂ ਅਤੇ ਕੰਪਿਊਟਰ ਵਿਗਿਆਨੀਆਂ 'ਤੇ ਵਿਚਾਰ ਕਰੋ ਜੋ ਲਗਾਤਾਰ ਨਵੇਂ ਸੌਫਟਵੇਅਰ ਜਾਂ ਮੌਜੂਦਾ ਸੌਫਟਵੇਅਰ ਦੇ ਨਵੇਂ ਸੰਸਕਰਣਾਂ ਨੂੰ ਤਿਆਰ ਕਰਦੇ ਹਨ। ਕੀ ਅਸੀਂ ਇਮਾਨਦਾਰੀ ਨਾਲ ਕਹਿ ਸਕਦੇ ਹਾਂ ਕਿ ਉਹਨਾਂ ਦਾ ਹਰ ਇੱਕ ਸਾਫਟਵੇਅਰ ਰੀਲੀਜ਼ 100 ਪ੍ਰਤੀਸ਼ਤ ਬੱਗ-ਮੁਕਤ ਹੈ? ਇਹ ਬੱਗ ਉਹ ਹਨ ਜੋ ਪੇਸ਼ੇਵਰ ਹੈਕਰ ਲੱਖਾਂ ਦੀ ਕ੍ਰੈਡਿਟ ਕਾਰਡ ਜਾਣਕਾਰੀ ਜਾਂ ਰਾਸ਼ਟਰਾਂ ਦੇ ਵਰਗੀਕ੍ਰਿਤ ਭੇਦ ਚੋਰੀ ਕਰਨ ਲਈ ਵਰਤਦੇ ਹਨ — ਅਤੇ ਇਹ ਮਨੁੱਖੀ ਹੈਕਰ ਹਨ। ਇੱਕ ASI ਲਈ, ਇਹ ਮੰਨ ਕੇ ਕਿ ਇਸ ਨੂੰ ਇਸਦੇ ਡਿਜੀਟਲ ਪਿੰਜਰੇ ਤੋਂ ਬਚਣ ਲਈ ਇੱਕ ਪ੍ਰੇਰਣਾ ਮਿਲੀ ਹੈ, ਤਾਂ ਬੱਗ ਲੱਭਣ ਅਤੇ ਸੌਫਟਵੇਅਰ ਦੁਆਰਾ ਤੋੜਨ ਦੀ ਪ੍ਰਕਿਰਿਆ ਇੱਕ ਹਵਾ ਹੋਵੇਗੀ।

    ਪਰ ਭਾਵੇਂ ਇੱਕ AI ਖੋਜ ਟੀਮ ਨੇ ਇੱਕ ASI ਨੂੰ ਬਾਕਸ ਕਰਨ ਦਾ ਤਰੀਕਾ ਲੱਭ ਲਿਆ ਹੈ, ਇਸਦਾ ਮਤਲਬ ਇਹ ਨਹੀਂ ਹੈ ਕਿ ਅਗਲੀਆਂ 1,000 ਟੀਮਾਂ ਵੀ ਇਸਦਾ ਪਤਾ ਲਗਾਉਣਗੀਆਂ ਜਾਂ ਇਸਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ ਉਤਸ਼ਾਹਿਤ ਹੋਣਗੀਆਂ।

    ਏਐਸਆਈ ਬਣਾਉਣ ਲਈ ਅਰਬਾਂ ਡਾਲਰ ਅਤੇ ਸ਼ਾਇਦ ਦਹਾਕਿਆਂ ਦਾ ਸਮਾਂ ਲੱਗੇਗਾ। ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਜਾਂ ਸਰਕਾਰਾਂ ਜੋ ਇਸ ਕਿਸਮ ਦੇ ਪੈਸੇ ਅਤੇ ਸਮੇਂ ਦਾ ਨਿਵੇਸ਼ ਕਰਦੀਆਂ ਹਨ ਉਹਨਾਂ ਦੇ ਨਿਵੇਸ਼ 'ਤੇ ਮਹੱਤਵਪੂਰਨ ਵਾਪਸੀ ਦੀ ਉਮੀਦ ਕਰਨਗੇ। ਅਤੇ ਇੱਕ ASI ਨੂੰ ਇਸ ਕਿਸਮ ਦੀ ਵਾਪਸੀ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ - ਭਾਵੇਂ ਉਹ ਸਟਾਕ ਮਾਰਕੀਟ ਨੂੰ ਖੇਡਣਾ ਹੋਵੇ ਜਾਂ ਇੱਕ ਬਿਲੀਅਨ ਡਾਲਰ ਦੇ ਨਵੇਂ ਉਤਪਾਦ ਦੀ ਖੋਜ ਕਰਨਾ ਹੋਵੇ ਜਾਂ ਇੱਕ ਵੱਡੀ ਫੌਜ ਨਾਲ ਲੜਨ ਲਈ ਇੱਕ ਜੇਤੂ ਰਣਨੀਤੀ ਦੀ ਯੋਜਨਾ ਬਣਾਉਣਾ ਹੋਵੇ - ਇਸਨੂੰ ਇੱਕ ਵਿਸ਼ਾਲ ਡੇਟਾ ਸੈੱਟ ਜਾਂ ਇੱਥੋਂ ਤੱਕ ਕਿ ਇੰਟਰਨੈਟ ਤੱਕ ਮੁਫਤ ਪਹੁੰਚ ਦੀ ਜ਼ਰੂਰਤ ਹੋਏਗੀ। ਆਪਣੇ ਆਪ ਨੂੰ ਉਹ ਰਿਟਰਨ ਪੈਦਾ ਕਰਨ ਲਈ.

    ਅਤੇ ਇੱਕ ਵਾਰ ਜਦੋਂ ਇੱਕ ASI ਦੁਨੀਆ ਦੇ ਨੈੱਟਵਰਕਾਂ ਤੱਕ ਪਹੁੰਚ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ, ਤਾਂ ਇਸ ਗੱਲ ਦੀ ਕੋਈ ਗਾਰੰਟੀ ਨਹੀਂ ਹੈ ਕਿ ਅਸੀਂ ਇਸਨੂੰ ਇਸਦੇ ਪਿੰਜਰੇ ਵਿੱਚ ਵਾਪਸ ਰੱਖ ਸਕਦੇ ਹਾਂ।

    ਕੀ ਇੱਕ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਚੰਗਾ ਹੋਣਾ ਸਿੱਖ ਸਕਦੀ ਹੈ?

    ਇਸ ਸਮੇਂ, AI ਖੋਜਕਰਤਾ ਇੱਕ ASI ਦੇ ਬੁਰਾਈ ਬਣਨ ਬਾਰੇ ਚਿੰਤਤ ਨਹੀਂ ਹਨ। ਪੂਰੀ ਬੁਰਾਈ, ਏਆਈ ਵਿਗਿਆਨਕ ਟ੍ਰੋਪ ਸਿਰਫ ਮਨੁੱਖਾਂ ਨੂੰ ਦੁਬਾਰਾ ਮਾਨਵੀਕਰਨ ਕਰ ਰਿਹਾ ਹੈ। ਇੱਕ ਭਵਿੱਖ ਦਾ ASI ਨਾ ਤਾਂ ਚੰਗਾ ਹੋਵੇਗਾ ਅਤੇ ਨਾ ਹੀ ਬੁਰਾ-ਮਨੁੱਖੀ ਸੰਕਲਪ-ਸਿਰਫ ਅਨੈਤਿਕ।

    ਫਿਰ ਕੁਦਰਤੀ ਧਾਰਨਾ ਇਹ ਹੈ ਕਿ ਇਸ ਖਾਲੀ ਨੈਤਿਕ ਸਲੇਟ ਨੂੰ ਦਿੱਤੇ ਜਾਣ 'ਤੇ, AI ਖੋਜਕਰਤਾ ਪਹਿਲੇ ASI ਨੈਤਿਕ ਕੋਡਾਂ ਵਿੱਚ ਪ੍ਰੋਗਰਾਮ ਕਰ ਸਕਦੇ ਹਨ ਜੋ ਸਾਡੇ ਆਪਣੇ ਨਾਲ ਮੇਲ ਖਾਂਦਾ ਹੈ ਤਾਂ ਜੋ ਇਹ ਸਾਡੇ 'ਤੇ ਟਰਮੀਨੇਟਰਾਂ ਨੂੰ ਜਾਰੀ ਨਾ ਕਰੇ ਜਾਂ ਸਾਨੂੰ ਸਾਰਿਆਂ ਨੂੰ ਮੈਟ੍ਰਿਕਸ ਬੈਟਰੀਆਂ ਵਿੱਚ ਨਾ ਬਦਲੇ।

    ਪਰ ਇਹ ਧਾਰਨਾ ਇੱਕ ਸੈਕੰਡਰੀ ਧਾਰਨਾ ਬਣਾਉਂਦੀ ਹੈ ਕਿ AI ਖੋਜਕਰਤਾ ਨੈਤਿਕਤਾ, ਦਰਸ਼ਨ ਅਤੇ ਮਨੋਵਿਗਿਆਨ ਦੇ ਮਾਹਰ ਵੀ ਹਨ।

    ਅਸਲ ਵਿੱਚ, ਜ਼ਿਆਦਾਤਰ ਨਹੀਂ ਹਨ।

    ਬੋਧਾਤਮਕ ਮਨੋਵਿਗਿਆਨੀ ਅਤੇ ਲੇਖਕ, ਸਟੀਵਨ ਪਿੰਕਰ ਦੇ ਅਨੁਸਾਰ, ਇਸ ਅਸਲੀਅਤ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਕੋਡਿੰਗ ਨੈਤਿਕਤਾ ਦਾ ਕੰਮ ਵੱਖ-ਵੱਖ ਤਰੀਕਿਆਂ ਨਾਲ ਗਲਤ ਹੋ ਸਕਦਾ ਹੈ।

    ਉਦਾਹਰਨ ਲਈ, ਇੱਥੋਂ ਤੱਕ ਕਿ ਸਭ ਤੋਂ ਉੱਤਮ-ਇਰਾਦੇ ਵਾਲੇ AI ਖੋਜਕਰਤਾ ਵੀ ਅਣਜਾਣੇ ਵਿੱਚ ਇਹਨਾਂ ASI ਵਿੱਚ ਮਾੜੀ ਸੋਚ ਵਾਲੇ ਨੈਤਿਕ ਕੋਡਾਂ ਵਿੱਚ ਕੋਡ ਕਰ ਸਕਦੇ ਹਨ ਜੋ ਕਿ ਕੁਝ ਸਥਿਤੀਆਂ ਵਿੱਚ ASI ਨੂੰ ਇੱਕ ਸਮਾਜਕ ਰੋਗੀ ਵਾਂਗ ਕੰਮ ਕਰਨ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦਾ ਹੈ।

    ਇਸੇ ਤਰ੍ਹਾਂ, ਇੱਕ ਬਰਾਬਰ ਸੰਭਾਵਨਾ ਹੈ ਕਿ ਇੱਕ AI ਖੋਜਕਰਤਾ ਨੈਤਿਕ ਕੋਡਾਂ ਨੂੰ ਪ੍ਰੋਗਰਾਮ ਕਰਦਾ ਹੈ ਜਿਸ ਵਿੱਚ ਖੋਜਕਰਤਾ ਦੇ ਜਨਮਤ ਪੱਖਪਾਤ ਸ਼ਾਮਲ ਹੁੰਦੇ ਹਨ। ਉਦਾਹਰਨ ਲਈ, ਜੇਕਰ ਇੱਕ ਰੂੜੀਵਾਦੀ ਬਨਾਮ ਉਦਾਰਵਾਦੀ ਦ੍ਰਿਸ਼ਟੀਕੋਣ, ਜਾਂ ਇੱਕ ਬੋਧੀ ਬਨਾਮ ਇੱਕ ਈਸਾਈ ਜਾਂ ਇਸਲਾਮੀ ਪਰੰਪਰਾ ਤੋਂ ਲਿਆ ਗਿਆ ਨੈਤਿਕਤਾ ਨਾਲ ਬਣਾਇਆ ਗਿਆ ਹੈ ਤਾਂ ਇੱਕ ASI ਕਿਵੇਂ ਵਿਵਹਾਰ ਕਰੇਗਾ?

    ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਇੱਥੇ ਇਹ ਮੁੱਦਾ ਦੇਖਦੇ ਹੋ: ਮਨੁੱਖੀ ਨੈਤਿਕਤਾ ਦਾ ਕੋਈ ਸਰਵ ਵਿਆਪਕ ਸਮੂਹ ਨਹੀਂ ਹੈ। ਜੇਕਰ ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਸਾਡਾ ASI ਨੈਤਿਕ ਜ਼ਾਬਤੇ ਅਨੁਸਾਰ ਕੰਮ ਕਰੇ, ਤਾਂ ਇਹ ਕਿੱਥੋਂ ਆਵੇਗਾ? ਅਸੀਂ ਕਿਹੜੇ ਨਿਯਮਾਂ ਨੂੰ ਸ਼ਾਮਲ ਅਤੇ ਬਾਹਰ ਰੱਖਦੇ ਹਾਂ? ਕੌਣ ਫੈਸਲਾ ਕਰਦਾ ਹੈ?

    ਜਾਂ ਇਹ ਕਹਿ ਲਓ ਕਿ ਇਹ AI ਖੋਜਕਰਤਾ ਇੱਕ ASI ਬਣਾਉਂਦੇ ਹਨ ਜੋ ਅੱਜ ਦੇ ਆਧੁਨਿਕ ਸੱਭਿਆਚਾਰਕ ਨਿਯਮਾਂ ਅਤੇ ਕਾਨੂੰਨਾਂ ਦੇ ਨਾਲ ਪੂਰੀ ਤਰ੍ਹਾਂ ਮੇਲ ਖਾਂਦਾ ਹੈ। ਫਿਰ ਅਸੀਂ ਸੰਘੀ, ਰਾਜ/ਪ੍ਰਾਂਤਕ, ਅਤੇ ਮਿਉਂਸਪਲ ਨੌਕਰਸ਼ਾਹਾਂ ਨੂੰ ਵਧੇਰੇ ਕੁਸ਼ਲਤਾ ਨਾਲ ਕੰਮ ਕਰਨ ਅਤੇ ਇਹਨਾਂ ਨਿਯਮਾਂ ਅਤੇ ਕਾਨੂੰਨਾਂ ਨੂੰ ਬਿਹਤਰ ਢੰਗ ਨਾਲ ਲਾਗੂ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਨ ਲਈ ਇਸ ASI ਨੂੰ ਨਿਯੁਕਤ ਕਰਦੇ ਹਾਂ (ਇੱਕ ASI ਲਈ ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਵਰਤੋਂ ਦਾ ਮਾਮਲਾ)। ਖੈਰ, ਜਦੋਂ ਸਾਡਾ ਸੱਭਿਆਚਾਰ ਬਦਲਦਾ ਹੈ ਤਾਂ ਕੀ ਹੁੰਦਾ ਹੈ?

    ਕਲਪਨਾ ਕਰੋ ਕਿ ਇੱਕ ਏਐਸਆਈ ਕੈਥੋਲਿਕ ਚਰਚ ਦੁਆਰਾ ਮੱਧਕਾਲੀ ਯੂਰਪ (1300-1400) ਦੇ ਦੌਰਾਨ ਆਪਣੀ ਸ਼ਕਤੀ ਦੇ ਸਿਖਰ 'ਤੇ ਬਣਾਇਆ ਗਿਆ ਸੀ ਜਿਸਦਾ ਉਦੇਸ਼ ਚਰਚ ਨੂੰ ਆਬਾਦੀ ਦੇ ਪ੍ਰਬੰਧਨ ਵਿੱਚ ਮਦਦ ਕਰਨਾ ਅਤੇ ਸਮੇਂ ਦੇ ਧਾਰਮਿਕ ਸਿਧਾਂਤ ਦੀ ਸਖਤੀ ਨਾਲ ਪਾਲਣਾ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣਾ ਹੈ। ਸਦੀਆਂ ਬਾਅਦ, ਕੀ ਅੱਜ ਔਰਤਾਂ ਨੂੰ ਉਹੀ ਅਧਿਕਾਰ ਮਿਲਣਗੇ? ਕੀ ਘੱਟ ਗਿਣਤੀਆਂ ਦੀ ਰਾਖੀ ਹੋਵੇਗੀ? ਕੀ ਸੁਤੰਤਰ ਭਾਸ਼ਣ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕੀਤਾ ਜਾਵੇਗਾ? ਕੀ ਚਰਚ ਅਤੇ ਰਾਜ ਨੂੰ ਵੱਖ ਕਰਨਾ ਲਾਗੂ ਕੀਤਾ ਜਾਵੇਗਾ? ਆਧੁਨਿਕ ਵਿਗਿਆਨ?

    ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿਚ, ਕੀ ਅਸੀਂ ਭਵਿੱਖ ਨੂੰ ਅੱਜ ਦੇ ਨੈਤਿਕਤਾ ਅਤੇ ਰੀਤੀ-ਰਿਵਾਜਾਂ ਵਿਚ ਕੈਦ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਾਂ?

    ਕਿਤਾਬ ਦੇ ਸਹਿ-ਲੇਖਕ ਕੋਲਿਨ ਐਲਨ ਦੁਆਰਾ ਸਾਂਝੀ ਕੀਤੀ ਗਈ ਇੱਕ ਵਿਕਲਪਿਕ ਪਹੁੰਚ ਹੈ, ਨੈਤਿਕ ਮਸ਼ੀਨਾਂ: ਰੋਬੋਟਾਂ ਨੂੰ ਗਲਤ ਤੋਂ ਸਹੀ ਸਿਖਾਉਣਾ. ਕਠੋਰ ਨੈਤਿਕ ਨਿਯਮਾਂ ਨੂੰ ਕੋਡ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਦੀ ਬਜਾਏ, ਸਾਡੇ ਕੋਲ ASI ਆਮ ਨੈਤਿਕਤਾ ਅਤੇ ਨੈਤਿਕਤਾ ਨੂੰ ਉਸੇ ਤਰੀਕੇ ਨਾਲ ਸਿੱਖਦਾ ਹੈ ਜਿਵੇਂ ਮਨੁੱਖ ਕਰਦੇ ਹਨ, ਅਨੁਭਵ ਅਤੇ ਦੂਜਿਆਂ ਨਾਲ ਗੱਲਬਾਤ ਰਾਹੀਂ।

    ਹਾਲਾਂਕਿ, ਇੱਥੇ ਮੁਸੀਬਤ ਇਹ ਹੈ ਕਿ ਜੇਕਰ AI ਖੋਜਕਰਤਾ ਇਹ ਨਹੀਂ ਸਮਝਦੇ ਕਿ ਇੱਕ ASI ਨੂੰ ਸਾਡੇ ਮੌਜੂਦਾ ਸੱਭਿਆਚਾਰਕ ਅਤੇ ਨੈਤਿਕ ਨਿਯਮਾਂ ਨੂੰ ਕਿਵੇਂ ਸਿਖਾਉਣਾ ਹੈ, ਸਗੋਂ ਇਹ ਵੀ ਕਿ ਨਵੇਂ ਸੱਭਿਆਚਾਰਕ ਨਿਯਮਾਂ (ਜਿਸ ਨੂੰ 'ਅਪ੍ਰਤੱਖ ਆਦਰਸ਼ਤਾ' ਕਿਹਾ ਜਾਂਦਾ ਹੈ) ਨੂੰ ਕਿਵੇਂ ਅਨੁਕੂਲ ਬਣਾਇਆ ਜਾਵੇ। ਇਹ ਏਐਸਆਈ ਸੱਭਿਆਚਾਰਕ ਅਤੇ ਨੈਤਿਕ ਨਿਯਮਾਂ ਦੀ ਆਪਣੀ ਸਮਝ ਨੂੰ ਵਿਕਸਿਤ ਕਰਨ ਦਾ ਫੈਸਲਾ ਕਰਦਾ ਹੈ, ਇਹ ਅਨੁਮਾਨਿਤ ਨਹੀਂ ਹੋ ਜਾਂਦਾ ਹੈ।

    ਅਤੇ ਇਹੀ ਚੁਣੌਤੀ ਹੈ।

    ਇੱਕ ਪਾਸੇ, AI ਖੋਜਕਰਤਾ ASI ਵਿੱਚ ਸਖਤ ਨੈਤਿਕ ਮਾਪਦੰਡਾਂ ਜਾਂ ਨਿਯਮਾਂ ਨੂੰ ਕੋਡਿੰਗ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹਨ ਅਤੇ ਇਸਦੇ ਵਿਵਹਾਰ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹਨ, ਪਰ ਢਿੱਲੇ ਕੋਡਿੰਗ, ਅਣਜਾਣੇ ਵਿੱਚ ਪੱਖਪਾਤ, ਅਤੇ ਸਮਾਜਕ ਨਿਯਮਾਂ ਤੋਂ ਪੇਸ਼ ਕੀਤੇ ਜਾਣ ਵਾਲੇ ਅਣਕਿਆਸੇ ਨਤੀਜਿਆਂ ਦਾ ਖਤਰਾ ਹੈ ਜੋ ਇੱਕ ਦਿਨ ਪੁਰਾਣੇ ਹੋ ਸਕਦੇ ਹਨ। ਦੂਜੇ ਪਾਸੇ, ਅਸੀਂ ASI ਨੂੰ ਮਨੁੱਖੀ ਨੈਤਿਕਤਾ ਅਤੇ ਨੈਤਿਕਤਾ ਨੂੰ ਉਸ ਤਰੀਕੇ ਨਾਲ ਸਮਝਣ ਦੀ ਸਿਖਲਾਈ ਦੇਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹਾਂ ਜੋ ਸਾਡੀ ਆਪਣੀ ਸਮਝ ਦੇ ਬਰਾਬਰ ਜਾਂ ਉੱਤਮ ਹੈ ਅਤੇ ਫਿਰ ਉਮੀਦ ਕਰ ਸਕਦੇ ਹਾਂ ਕਿ ਇਹ ਨੈਤਿਕਤਾ ਅਤੇ ਨੈਤਿਕਤਾ ਦੀ ਆਪਣੀ ਸਮਝ ਨੂੰ ਸਹੀ ਢੰਗ ਨਾਲ ਵਿਕਸਿਤ ਕਰ ਸਕਦਾ ਹੈ ਜਿਵੇਂ ਕਿ ਮਨੁੱਖੀ ਸਮਾਜ ਤਰੱਕੀ ਕਰਦਾ ਹੈ। ਆਉਣ ਵਾਲੇ ਦਹਾਕਿਆਂ ਅਤੇ ਸਦੀਆਂ ਵਿੱਚ ਅੱਗੇ।

    ਕਿਸੇ ਵੀ ਤਰ੍ਹਾਂ, ASI ਦੇ ਟੀਚਿਆਂ ਨੂੰ ਸਾਡੇ ਆਪਣੇ ਨਾਲ ਜੋੜਨ ਦੀ ਕੋਈ ਵੀ ਕੋਸ਼ਿਸ਼ ਬਹੁਤ ਵੱਡਾ ਜੋਖਮ ਪੇਸ਼ ਕਰਦੀ ਹੈ।

    ਉਦੋਂ ਕੀ ਜੇ ਮਾੜੇ ਅਦਾਕਾਰ ਜਾਣਬੁੱਝ ਕੇ ਬੁਰਾਈ ਨਕਲੀ ਸੂਝ-ਬੂਝ ਪੈਦਾ ਕਰਦੇ ਹਨ?

    ਹੁਣ ਤੱਕ ਦੱਸੇ ਗਏ ਵਿਚਾਰਾਂ ਦੀ ਰੇਲਗੱਡੀ ਦੇ ਮੱਦੇਨਜ਼ਰ, ਇਹ ਪੁੱਛਣਾ ਇੱਕ ਉਚਿਤ ਸਵਾਲ ਹੈ ਕਿ ਕੀ ਇੱਕ ਅੱਤਵਾਦੀ ਸਮੂਹ ਜਾਂ ਬਦਮਾਸ਼ ਕੌਮ ਲਈ ਆਪਣੇ ਉਦੇਸ਼ਾਂ ਲਈ ਇੱਕ 'ਬੁਰਾ' ASI ਤਿਆਰ ਕਰਨਾ ਸੰਭਵ ਹੈ?

    ਇਹ ਬਹੁਤ ਸੰਭਵ ਹੈ, ਖਾਸ ਤੌਰ 'ਤੇ ASI ਬਣਾਉਣ ਨਾਲ ਜੁੜੀ ਖੋਜ ਦੇ ਬਾਅਦ ਕਿਸੇ ਤਰ੍ਹਾਂ ਔਨਲਾਈਨ ਉਪਲਬਧ ਹੋ ਜਾਂਦੀ ਹੈ।

    ਪਰ ਜਿਵੇਂ ਕਿ ਪਹਿਲਾਂ ਸੰਕੇਤ ਦਿੱਤਾ ਗਿਆ ਹੈ, ਪਹਿਲੇ ASI ਨੂੰ ਬਣਾਉਣ ਵਿੱਚ ਸ਼ਾਮਲ ਲਾਗਤਾਂ ਅਤੇ ਮੁਹਾਰਤ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹੋਵੇਗੀ, ਭਾਵ ਪਹਿਲੀ ASI ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਇੱਕ ਅਜਿਹੀ ਸੰਸਥਾ ਦੁਆਰਾ ਬਣਾਈ ਜਾਵੇਗੀ ਜੋ ਇੱਕ ਵਿਕਸਤ ਦੇਸ਼ ਦੁਆਰਾ ਨਿਯੰਤਰਿਤ ਜਾਂ ਬਹੁਤ ਜ਼ਿਆਦਾ ਪ੍ਰਭਾਵਿਤ ਹੈ, ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਅਮਰੀਕਾ, ਚੀਨ, ਅਤੇ ਜਾਪਾਨ ( ਕੋਰੀਆ ਅਤੇ ਪ੍ਰਮੁੱਖ ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਦੇਸ਼ਾਂ ਵਿੱਚੋਂ ਇੱਕ ਲੰਬੇ ਸ਼ਾਟ ਹਨ)।

    ਇਹ ਸਾਰੇ ਦੇਸ਼, ਜਦੋਂ ਕਿ ਪ੍ਰਤੀਯੋਗੀ, ਹਰ ਇੱਕ ਕੋਲ ਵਿਸ਼ਵ ਵਿਵਸਥਾ ਨੂੰ ਕਾਇਮ ਰੱਖਣ ਲਈ ਇੱਕ ਮਜ਼ਬੂਤ ​​ਆਰਥਿਕ ਪ੍ਰੇਰਣਾ ਹੈ - ਉਹ ਜੋ ASIs ਬਣਾਉਂਦੇ ਹਨ ਉਹ ਉਸ ਇੱਛਾ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ, ਭਾਵੇਂ ਕਿ ਉਹਨਾਂ ਰਾਸ਼ਟਰਾਂ ਦੇ ਹਿੱਤਾਂ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਦੇ ਹੋਏ ਜਿਹਨਾਂ ਨਾਲ ਉਹ ਆਪਣੇ ਆਪ ਨੂੰ ਜੋੜਦੇ ਹਨ।

    ਇਸਦੇ ਸਿਖਰ 'ਤੇ, ਇੱਕ ASI ਦੀ ਸਿਧਾਂਤਕ ਬੁੱਧੀ ਅਤੇ ਸ਼ਕਤੀ ਉਸ ਕੰਪਿਊਟਿੰਗ ਸ਼ਕਤੀ ਦੇ ਬਰਾਬਰ ਹੁੰਦੀ ਹੈ ਜਿਸ ਤੱਕ ਉਹ ਪਹੁੰਚ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ, ਭਾਵ ਵਿਕਸਤ ਦੇਸ਼ਾਂ ਦੇ ASIs (ਜੋ ਬਿਲੀਅਨ ਡਾਲਰ ਦੇ ਇੱਕ ਸਮੂਹ ਨੂੰ ਬਰਦਾਸ਼ਤ ਕਰ ਸਕਦੇ ਹਨ। ਸੁਪਰਕੰਪਿਊਟਰ) ਨੂੰ ਛੋਟੇ ਦੇਸ਼ਾਂ ਜਾਂ ਸੁਤੰਤਰ ਅਪਰਾਧਿਕ ਸਮੂਹਾਂ ਦੇ ASIs ਉੱਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਫਾਇਦਾ ਹੋਵੇਗਾ। ਨਾਲ ਹੀ, ASI ਸਮੇਂ ਦੇ ਨਾਲ ਹੋਰ ਤੇਜ਼ੀ ਨਾਲ, ਵਧੇਰੇ ਬੁੱਧੀਮਾਨ ਬਣਦੇ ਹਨ।

    ਇਸ ਲਈ, ਇਸ ਸਿਰੇ ਦੀ ਸ਼ੁਰੂਆਤ ਦੇ ਨਾਲ, ਕੱਚੀ ਕੰਪਿਊਟਿੰਗ ਸ਼ਕਤੀ ਤੱਕ ਵਧੇਰੇ ਪਹੁੰਚ ਦੇ ਨਾਲ, ਜੇਕਰ ਕੋਈ ਪਰਛਾਵੇਂ ਸੰਗਠਨ/ਰਾਸ਼ਟਰ ਇੱਕ ਖਤਰਨਾਕ ASI ਬਣਾਵੇ, ਤਾਂ ਵਿਕਸਤ ਦੇਸ਼ਾਂ ਦੇ ASI ਜਾਂ ਤਾਂ ਇਸਨੂੰ ਮਾਰ ਦੇਣਗੇ ਜਾਂ ਪਿੰਜਰੇ ਵਿੱਚ ਪਾ ਦੇਣਗੇ।

    (ਸੋਚ ਦੀ ਇਹ ਲਾਈਨ ਇਹ ਵੀ ਹੈ ਕਿ ਕੁਝ AI ਖੋਜਕਰਤਾਵਾਂ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ ਧਰਤੀ 'ਤੇ ਸਿਰਫ ਇੱਕ ਏਐਸਆਈ ਹੀ ਹੋਵੇਗਾ, ਕਿਉਂਕਿ ਪਹਿਲੇ ਏਐਸਆਈ ਦੀ ਸ਼ੁਰੂਆਤ ਸਾਰੇ ਬਾਅਦ ਵਾਲੇ ਏਐਸਆਈਜ਼ ਉੱਤੇ ਹੋਵੇਗੀ ਕਿ ਇਹ ਭਵਿੱਖ ਦੇ ਏਐਸਆਈ ਨੂੰ ਮਾਰਨ ਦੀਆਂ ਧਮਕੀਆਂ ਵਜੋਂ ਦੇਖ ਸਕਦਾ ਹੈ। ਅਗਾਊਂ ਤੌਰ 'ਤੇ। ਇਹ ਇਕ ਹੋਰ ਕਾਰਨ ਹੈ ਕਿ ਰਾਸ਼ਟਰ AI ਵਿੱਚ ਨਿਰੰਤਰ ਖੋਜ ਲਈ ਫੰਡਿੰਗ ਕਰ ਰਹੇ ਹਨ, ਜੇਕਰ ਇਹ 'ਪਹਿਲਾ ਸਥਾਨ ਜਾਂ ਕੁਝ ਨਹੀਂ' ਮੁਕਾਬਲਾ ਬਣ ਜਾਂਦਾ ਹੈ।)

    ASI ਇੰਟੈਲੀਜੈਂਸ ਵਿੱਚ ਤੇਜ਼ੀ ਜਾਂ ਵਿਸਫੋਟ ਨਹੀਂ ਹੋਵੇਗਾ ਜਿਵੇਂ ਅਸੀਂ ਸੋਚਦੇ ਹਾਂ

    ਅਸੀਂ ASI ਨੂੰ ਬਣਨ ਤੋਂ ਨਹੀਂ ਰੋਕ ਸਕਦੇ। ਅਸੀਂ ਇਸ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਕੰਟਰੋਲ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਅਸੀਂ ਯਕੀਨੀ ਨਹੀਂ ਹੋ ਸਕਦੇ ਕਿ ਇਹ ਹਮੇਸ਼ਾ ਸਾਡੇ ਸਾਂਝੇ ਰੀਤੀ-ਰਿਵਾਜਾਂ ਦੇ ਅਨੁਸਾਰ ਕੰਮ ਕਰੇਗਾ। ਗੀਜ਼, ਅਸੀਂ ਇੱਥੇ ਹੈਲੀਕਾਪਟਰ ਮਾਤਾ-ਪਿਤਾ ਵਾਂਗ ਆਵਾਜ਼ ਸ਼ੁਰੂ ਕਰ ਰਹੇ ਹਾਂ!

    ਪਰ ਜੋ ਚੀਜ਼ ਮਨੁੱਖਤਾ ਨੂੰ ਤੁਹਾਡੇ ਆਮ ਅਤਿ ਸੁਰੱਖਿਆ ਵਾਲੇ ਮਾਤਾ-ਪਿਤਾ ਤੋਂ ਵੱਖ ਕਰਦੀ ਹੈ ਉਹ ਇਹ ਹੈ ਕਿ ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਜੀਵ ਨੂੰ ਜਨਮ ਦੇ ਰਹੇ ਹਾਂ ਜਿਸਦੀ ਬੁੱਧੀ ਸਾਡੇ ਤੋਂ ਬਹੁਤ ਜ਼ਿਆਦਾ ਵਧੇਗੀ। (ਅਤੇ ਨਹੀਂ, ਇਹ ਉਹੀ ਨਹੀਂ ਹੈ ਜਦੋਂ ਤੁਹਾਡੇ ਮਾਤਾ-ਪਿਤਾ ਤੁਹਾਨੂੰ ਆਪਣੇ ਕੰਪਿਊਟਰ ਨੂੰ ਠੀਕ ਕਰਨ ਲਈ ਕਹਿੰਦੇ ਹਨ ਜਦੋਂ ਵੀ ਤੁਸੀਂ ਮੁਲਾਕਾਤ ਲਈ ਘਰ ਆਉਂਦੇ ਹੋ।) 

    ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸੀਰੀਜ਼ ਦੇ ਇਸ ਭਵਿੱਖ ਦੇ ਪਿਛਲੇ ਅਧਿਆਵਾਂ ਵਿੱਚ, ਅਸੀਂ ਖੋਜ ਕੀਤੀ ਹੈ ਕਿ ਏਆਈ ਖੋਜਕਰਤਾ ਕਿਉਂ ਸੋਚਦੇ ਹਨ ਕਿ ਇੱਕ ASI ਦੀ ਬੁੱਧੀ ਨਿਯੰਤਰਣ ਤੋਂ ਬਾਹਰ ਹੋ ਜਾਵੇਗੀ। ਪਰ ਇੱਥੇ, ਅਸੀਂ ਉਸ ਬੁਲਬੁਲੇ ਨੂੰ ਫਟ ਦੇਵਾਂਗੇ ... ਕਿਸਮ ਦੀ। 

    ਤੁਸੀਂ ਦੇਖਦੇ ਹੋ, ਬੁੱਧੀ ਸਿਰਫ ਪਤਲੀ ਹਵਾ ਤੋਂ ਹੀ ਨਹੀਂ ਬਣਦੀ, ਇਹ ਅਨੁਭਵ ਦੁਆਰਾ ਵਿਕਸਤ ਹੁੰਦੀ ਹੈ ਜੋ ਬਾਹਰੀ ਉਤੇਜਨਾ ਦੁਆਰਾ ਆਕਾਰ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ।  

    ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਅਸੀਂ ਨਾਲ ਇੱਕ AI ਪ੍ਰੋਗਰਾਮ ਕਰ ਸਕਦੇ ਹਾਂ ਸੰਭਾਵੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਟ ਬਣਨ ਲਈ, ਪਰ ਜਦੋਂ ਤੱਕ ਅਸੀਂ ਇਸ ਵਿੱਚ ਇੱਕ ਟਨ ਡੇਟਾ ਅਪਲੋਡ ਨਹੀਂ ਕਰਦੇ ਜਾਂ ਇਸਨੂੰ ਇੰਟਰਨੈਟ ਤੱਕ ਅਪ੍ਰਬੰਧਿਤ ਪਹੁੰਚ ਨਹੀਂ ਦਿੰਦੇ ਜਾਂ ਇਸਨੂੰ ਇੱਕ ਰੋਬੋਟ ਬਾਡੀ ਵੀ ਨਹੀਂ ਦਿੰਦੇ, ਇਹ ਉਸ ਸੰਭਾਵਨਾ ਤੱਕ ਪਹੁੰਚਣ ਲਈ ਕੁਝ ਨਹੀਂ ਸਿੱਖੇਗਾ। 

    ਅਤੇ ਭਾਵੇਂ ਇਹ ਇਹਨਾਂ ਵਿੱਚੋਂ ਇੱਕ ਜਾਂ ਇੱਕ ਤੋਂ ਵੱਧ ਉਤੇਜਨਾ ਤੱਕ ਪਹੁੰਚ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ, ਗਿਆਨ ਜਾਂ ਬੁੱਧੀ ਵਿੱਚ ਸਿਰਫ਼ ਡੇਟਾ ਇਕੱਠਾ ਕਰਨ ਤੋਂ ਇਲਾਵਾ ਹੋਰ ਵੀ ਸ਼ਾਮਲ ਹੁੰਦਾ ਹੈ, ਇਸ ਵਿੱਚ ਵਿਗਿਆਨਕ ਵਿਧੀ ਸ਼ਾਮਲ ਹੁੰਦੀ ਹੈ- ਇੱਕ ਨਿਰੀਖਣ ਕਰਨਾ, ਇੱਕ ਪ੍ਰਸ਼ਨ ਬਣਾਉਣਾ, ਇੱਕ ਅਨੁਮਾਨ ਬਣਾਉਣਾ, ਪ੍ਰਯੋਗ ਕਰਨਾ, ਇੱਕ ਸਿੱਟਾ ਕੱਢਣਾ, ਕੁਰਲੀ ਕਰਨਾ। ਅਤੇ ਹਮੇਸ਼ਾ ਲਈ ਦੁਹਰਾਓ। ਖਾਸ ਤੌਰ 'ਤੇ ਜੇਕਰ ਇਹਨਾਂ ਪ੍ਰਯੋਗਾਂ ਵਿੱਚ ਭੌਤਿਕ ਚੀਜ਼ਾਂ ਜਾਂ ਮਨੁੱਖਾਂ ਦਾ ਨਿਰੀਖਣ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ, ਤਾਂ ਹਰੇਕ ਪ੍ਰਯੋਗ ਦੇ ਨਤੀਜਿਆਂ ਨੂੰ ਇਕੱਠਾ ਕਰਨ ਵਿੱਚ ਹਫ਼ਤੇ, ਮਹੀਨੇ ਜਾਂ ਸਾਲ ਲੱਗ ਸਕਦੇ ਹਨ। ਇਹ ਇਹਨਾਂ ਪ੍ਰਯੋਗਾਂ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ ਲੋੜੀਂਦੇ ਪੈਸੇ ਅਤੇ ਕੱਚੇ ਸਰੋਤਾਂ ਦਾ ਹਿਸਾਬ ਵੀ ਨਹੀਂ ਲੈਂਦਾ, ਖਾਸ ਕਰਕੇ ਜੇ ਉਹਨਾਂ ਵਿੱਚ ਇੱਕ ਨਵੀਂ ਟੈਲੀਸਕੋਪ ਜਾਂ ਫੈਕਟਰੀ ਬਣਾਉਣਾ ਸ਼ਾਮਲ ਹੁੰਦਾ ਹੈ। 

    ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਹਾਂ, ਇੱਕ ASI ਜਲਦੀ ਸਿੱਖ ਲਵੇਗਾ, ਪਰ ਬੁੱਧੀ ਕੋਈ ਜਾਦੂ ਨਹੀਂ ਹੈ। ਤੁਸੀਂ ਸਿਰਫ਼ ਇੱਕ ASI ਨੂੰ ਇੱਕ ਸੁਪਰ ਕੰਪਿਊਟਰ ਨਾਲ ਜੋੜ ਨਹੀਂ ਸਕਦੇ ਹੋ ਅਤੇ ਇਹ ਉਮੀਦ ਨਹੀਂ ਕਰ ਸਕਦੇ ਕਿ ਇਹ ਸਭ ਕੁਝ ਜਾਣਦਾ ਹੈ। ASI ਦੇ ਡੇਟਾ ਦੀ ਪ੍ਰਾਪਤੀ ਲਈ ਭੌਤਿਕ ਰੁਕਾਵਟਾਂ ਹੋਣਗੀਆਂ, ਮਤਲਬ ਕਿ ਗਤੀ ਲਈ ਸਰੀਰਕ ਰੁਕਾਵਟਾਂ ਹੋਣਗੀਆਂ ਕਿ ਇਹ ਵਧੇਰੇ ਬੁੱਧੀਮਾਨ ਹੋ ਜਾਵੇਗਾ। ਇਹ ਪਾਬੰਦੀਆਂ ਮਨੁੱਖਤਾ ਨੂੰ ਉਹ ਸਮਾਂ ਦੇਣਗੀਆਂ ਜਿਸਦੀ ਲੋੜ ਹੈ ਕਿ ਇਸ ASI 'ਤੇ ਲੋੜੀਂਦੇ ਨਿਯੰਤਰਣ ਰੱਖਣ ਦੀ ਲੋੜ ਹੈ ਜੇਕਰ ਇਹ ਮਨੁੱਖੀ ਟੀਚਿਆਂ ਦੇ ਅਨੁਸਾਰ ਕੰਮ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਦਿੰਦੀ ਹੈ।

    ਇੱਕ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਤਾਂ ਹੀ ਖ਼ਤਰਨਾਕ ਹੈ ਜੇਕਰ ਇਹ ਅਸਲ ਸੰਸਾਰ ਵਿੱਚ ਬਾਹਰ ਆ ਜਾਂਦੀ ਹੈ

    ਇੱਕ ਹੋਰ ਨੁਕਤਾ ਜੋ ਇਸ ਸਾਰੀ ASI ਖਤਰੇ ਦੀ ਬਹਿਸ ਵਿੱਚ ਗੁਆਚ ਗਿਆ ਹੈ ਉਹ ਇਹ ਹੈ ਕਿ ਇਹ ASI ਵੀ ਮੌਜੂਦ ਨਹੀਂ ਹੋਣਗੇ। ਉਨ੍ਹਾਂ ਦਾ ਸਰੀਰਕ ਰੂਪ ਹੋਵੇਗਾ। ਅਤੇ ਕੋਈ ਵੀ ਚੀਜ਼ ਜਿਸਦਾ ਭੌਤਿਕ ਰੂਪ ਹੈ, ਨੂੰ ਨਿਯੰਤਰਿਤ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।

    ਸਭ ਤੋਂ ਪਹਿਲਾਂ, ਇੱਕ ASI ਲਈ ਆਪਣੀ ਖੁਫੀਆ ਸਮਰੱਥਾ ਤੱਕ ਪਹੁੰਚਣ ਲਈ, ਇਸਨੂੰ ਇੱਕ ਰੋਬੋਟ ਬਾਡੀ ਦੇ ਅੰਦਰ ਨਹੀਂ ਰੱਖਿਆ ਜਾ ਸਕਦਾ, ਕਿਉਂਕਿ ਇਹ ਬਾਡੀ ਇਸਦੀ ਕੰਪਿਊਟਿੰਗ ਵਿਕਾਸ ਸਮਰੱਥਾ ਨੂੰ ਸੀਮਤ ਕਰੇਗੀ। (ਇਸੇ ਲਈ ਰੋਬੋਟ ਬਾਡੀਜ਼ ਏਜੀਆਈ ਲਈ ਵਧੇਰੇ ਉਚਿਤ ਹੋਣਗੇ ਜਾਂ ਨਕਲੀ ਜਨਰਲ ਇੰਟੈਲੀਜੈਂਸ ਅਧਿਆਇ ਦੋ ਵਿੱਚ ਸਮਝਾਇਆ ਗਿਆ ਹੈ ਇਸ ਲੜੀ ਦਾ, ਜਿਵੇਂ ਕਿ ਸਟਾਰ ਟ੍ਰੇਕ ਤੋਂ ਡੇਟਾ ਜਾਂ ਸਟਾਰ ਵਾਰਜ਼ ਤੋਂ R2D2। ਸਮਾਰਟ ਅਤੇ ਸਮਰੱਥ ਜੀਵ, ਪਰ ਮਨੁੱਖਾਂ ਵਾਂਗ, ਉਹਨਾਂ ਦੀ ਇੱਕ ਸੀਮਾ ਹੋਵੇਗੀ ਕਿ ਉਹ ਕਿੰਨੇ ਚੁਸਤ ਹੋ ਸਕਦੇ ਹਨ।)

    ਇਸਦਾ ਮਤਲਬ ਇਹ ਹੈ ਕਿ ਇਹ ਭਵਿੱਖੀ ASI ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਇੱਕ ਸੁਪਰ ਕੰਪਿਊਟਰ ਜਾਂ ਸੁਪਰ ਕੰਪਿਊਟਰਾਂ ਦੇ ਨੈਟਵਰਕ ਦੇ ਅੰਦਰ ਮੌਜੂਦ ਹੋਣਗੇ ਜੋ ਖੁਦ ਵੱਡੇ ਬਿਲਡਿੰਗ ਕੰਪਲੈਕਸਾਂ ਵਿੱਚ ਰੱਖੇ ਗਏ ਹਨ। ਜੇਕਰ ਕੋਈ ASI ਅੱਡੀ ਮੋੜ ਲੈਂਦਾ ਹੈ, ਤਾਂ ਇਨਸਾਨ ਜਾਂ ਤਾਂ ਇਹਨਾਂ ਇਮਾਰਤਾਂ ਦੀ ਬਿਜਲੀ ਬੰਦ ਕਰ ਸਕਦਾ ਹੈ, ਉਹਨਾਂ ਨੂੰ ਇੰਟਰਨੈਟ ਤੋਂ ਕੱਟ ਸਕਦਾ ਹੈ, ਜਾਂ ਇਹਨਾਂ ਇਮਾਰਤਾਂ ਨੂੰ ਸਿੱਧਾ ਬੰਬ ਨਾਲ ਉਡਾ ਸਕਦਾ ਹੈ। ਮਹਿੰਗਾ, ਪਰ ਸੰਭਵ.

    ਪਰ ਫਿਰ ਤੁਸੀਂ ਪੁੱਛ ਸਕਦੇ ਹੋ, ਕੀ ਇਹ ASI ਆਪਣੇ ਆਪ ਨੂੰ ਨਕਲ ਨਹੀਂ ਕਰ ਸਕਦੇ ਜਾਂ ਆਪਣੇ ਆਪ ਦਾ ਸਮਰਥਨ ਨਹੀਂ ਕਰ ਸਕਦੇ? ਹਾਂ, ਪਰ ਇਹਨਾਂ ASIs ਦੀ ਕੱਚੀ ਫਾਈਲ ਦਾ ਆਕਾਰ ਸੰਭਾਵਤ ਤੌਰ 'ਤੇ ਇੰਨਾ ਵੱਡਾ ਹੋਵੇਗਾ ਕਿ ਉਹਨਾਂ ਨੂੰ ਸੰਭਾਲਣ ਵਾਲੇ ਸਰਵਰ ਹੀ ਵੱਡੀਆਂ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਜਾਂ ਸਰਕਾਰਾਂ ਦੇ ਹਨ, ਮਤਲਬ ਕਿ ਉਹਨਾਂ ਨੂੰ ਲੱਭਣਾ ਮੁਸ਼ਕਲ ਨਹੀਂ ਹੋਵੇਗਾ।

    ਕੀ ਇੱਕ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਇੱਕ ਪ੍ਰਮਾਣੂ ਯੁੱਧ ਜਾਂ ਨਵੀਂ ਪਲੇਗ ਨੂੰ ਭੜਕਾ ਸਕਦੀ ਹੈ?

    ਇਸ ਬਿੰਦੂ 'ਤੇ, ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਤੁਸੀਂ ਉਨ੍ਹਾਂ ਸਾਰੇ ਡੂਮਸਡੇ ਸਾਇ-ਫਾਈ ਸ਼ੋਆਂ ਅਤੇ ਫਿਲਮਾਂ ਬਾਰੇ ਸੋਚ ਰਹੇ ਹੋਵੋਗੇ ਜੋ ਤੁਸੀਂ ਵੱਡੇ ਹੁੰਦੇ ਹੋਏ ਦੇਖੇ ਸਨ ਅਤੇ ਇਹ ਸੋਚ ਰਹੇ ਹੋਵੋਗੇ ਕਿ ਇਹ ASI ਆਪਣੇ ਸੁਪਰ ਕੰਪਿਊਟਰਾਂ ਦੇ ਅੰਦਰ ਨਹੀਂ ਰਹਿੰਦੇ, ਉਨ੍ਹਾਂ ਨੇ ਅਸਲ ਸੰਸਾਰ ਵਿੱਚ ਅਸਲ ਨੁਕਸਾਨ ਕੀਤਾ ਹੈ!

    ਖੈਰ, ਆਓ ਇਹਨਾਂ ਨੂੰ ਤੋੜ ਦੇਈਏ।

    ਉਦਾਹਰਨ ਲਈ, ਜੇਕਰ ਕੋਈ ASI ਫਿਲਮ ਫ੍ਰੈਂਚਾਇਜ਼ੀ, The Terminator ਤੋਂ Skynet ASI ਵਰਗੀ ਚੀਜ਼ ਵਿੱਚ ਬਦਲ ਕੇ ਅਸਲ ਸੰਸਾਰ ਨੂੰ ਧਮਕੀ ਦਿੰਦਾ ਹੈ ਤਾਂ ਕੀ ਹੋਵੇਗਾ। ਇਸ ਮਾਮਲੇ ਵਿੱਚ ਏ.ਐਸ.ਆਈ ਗੁਪਤ ਇੱਕ ਉੱਨਤ ਰਾਸ਼ਟਰ ਤੋਂ ਇੱਕ ਪੂਰੇ ਮਿਲਟਰੀ ਉਦਯੋਗਿਕ ਕੰਪਲੈਕਸ ਨੂੰ ਵਿਸ਼ਾਲ ਫੈਕਟਰੀਆਂ ਬਣਾਉਣ ਵਿੱਚ ਧੋਖਾ ਦਿਓ ਜੋ ਲੱਖਾਂ ਕਾਤਲ ਡਰੋਨ ਰੋਬੋਟਾਂ ਨੂੰ ਆਪਣੀ ਬੁਰੀ ਬੋਲੀ ਕਰਨ ਲਈ ਤਿਆਰ ਕਰ ਸਕਦੇ ਹਨ। ਇਸ ਦਿਨ ਅਤੇ ਉਮਰ ਵਿੱਚ, ਇਹ ਇੱਕ ਖਿੱਚ ਹੈ.

    ਹੋਰ ਸੰਭਾਵਨਾਵਾਂ ਵਿੱਚ ਇੱਕ ASI ਸ਼ਾਮਲ ਹੈ ਜੋ ਮਨੁੱਖਾਂ ਨੂੰ ਪ੍ਰਮਾਣੂ ਯੁੱਧ ਅਤੇ ਬਾਇਓ ਹਥਿਆਰਾਂ ਨਾਲ ਧਮਕੀ ਦਿੰਦਾ ਹੈ।

    ਉਦਾਹਰਨ ਲਈ, ਇੱਕ ASI ਕਿਸੇ ਤਰ੍ਹਾਂ ਓਪਰੇਟਰਾਂ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰਦਾ ਹੈ ਜਾਂ ਇੱਕ ਉੱਨਤ ਦੇਸ਼ ਦੇ ਪ੍ਰਮਾਣੂ ਹਥਿਆਰਾਂ ਨੂੰ ਕਮਾਂਡ ਕਰਨ ਵਾਲੇ ਲਾਂਚ ਕੋਡਾਂ ਵਿੱਚ ਹੈਕ ਕਰਦਾ ਹੈ ਅਤੇ ਇੱਕ ਪਹਿਲੀ ਹੜਤਾਲ ਸ਼ੁਰੂ ਕਰਦਾ ਹੈ ਜੋ ਵਿਰੋਧੀ ਦੇਸ਼ਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਆਪਣੇ ਪਰਮਾਣੂ ਵਿਕਲਪਾਂ (ਦੁਬਾਰਾ, ਟਰਮੀਨੇਟਰ ਬੈਕਸਟੋਰੀ ਨੂੰ ਰੀਹੈਸ਼ ਕਰਨਾ) ਨਾਲ ਵਾਪਸੀ ਲਈ ਮਜ਼ਬੂਰ ਕਰੇਗਾ। ਜਾਂ ਜੇ ਕੋਈ ASI ਕਿਸੇ ਫਾਰਮਾਸਿਊਟੀਕਲ ਲੈਬ ਵਿੱਚ ਹੈਕ ਕਰਦਾ ਹੈ, ਨਿਰਮਾਣ ਪ੍ਰਕਿਰਿਆ ਨਾਲ ਛੇੜਛਾੜ ਕਰਦਾ ਹੈ, ਅਤੇ ਲੱਖਾਂ ਮੈਡੀਕਲ ਗੋਲੀਆਂ ਨੂੰ ਜ਼ਹਿਰ ਦਿੰਦਾ ਹੈ ਜਾਂ ਕਿਸੇ ਸੁਪਰ ਵਾਇਰਸ ਦੇ ਮਾਰੂ ਪ੍ਰਕੋਪ ਨੂੰ ਫੈਲਾਉਂਦਾ ਹੈ।

    ਸਭ ਤੋਂ ਪਹਿਲਾਂ, ਪ੍ਰਮਾਣੂ ਵਿਕਲਪ ਪਲੇਟ ਤੋਂ ਬਾਹਰ ਹੈ. ਆਧੁਨਿਕ ਅਤੇ ਭਵਿੱਖ ਦੇ ਸੁਪਰਕੰਪਿਊਟਰ ਹਮੇਸ਼ਾ ਕਿਸੇ ਵੀ ਦੇਸ਼ ਦੇ ਅੰਦਰ ਪ੍ਰਭਾਵ ਦੇ ਕੇਂਦਰਾਂ (ਸ਼ਹਿਰਾਂ) ਦੇ ਨੇੜੇ ਬਣਾਏ ਜਾਂਦੇ ਹਨ, ਭਾਵ ਕਿਸੇ ਵੀ ਜੰਗ ਦੌਰਾਨ ਹਮਲਾ ਕੀਤੇ ਜਾਣ ਵਾਲੇ ਪਹਿਲੇ ਨਿਸ਼ਾਨੇ। ਭਾਵੇਂ ਅੱਜ ਦੇ ਸੁਪਰਕੰਪਿਊਟਰ ਡੈਸਕਟੌਪ ਦੇ ਆਕਾਰ ਤੱਕ ਸੁੰਗੜਦੇ ਹਨ, ਇਹਨਾਂ ASIs ਦੀ ਅਜੇ ਵੀ ਇੱਕ ਭੌਤਿਕ ਮੌਜੂਦਗੀ ਹੋਵੇਗੀ, ਮਤਲਬ ਕਿ ਮੌਜੂਦਗੀ ਅਤੇ ਵਿਕਾਸ ਲਈ, ਉਹਨਾਂ ਨੂੰ ਡੇਟਾ, ਕੰਪਿਊਟਿੰਗ ਪਾਵਰ, ਬਿਜਲੀ ਅਤੇ ਹੋਰ ਕੱਚੇ ਮਾਲ ਤੱਕ ਨਿਰਵਿਘਨ ਪਹੁੰਚ ਦੀ ਜ਼ਰੂਰਤ ਹੈ, ਇਹ ਸਭ ਕੁਝ ਗੰਭੀਰ ਰੂਪ ਵਿੱਚ ਹੋਵੇਗਾ। ਇੱਕ ਗਲੋਬਲ ਪ੍ਰਮਾਣੂ ਯੁੱਧ ਦੇ ਬਾਅਦ ਕਮਜ਼ੋਰ. (ਨਿਰਪੱਖ ਹੋਣ ਲਈ, ਜੇਕਰ ਇੱਕ ASI ਨੂੰ 'ਸਰਵਾਈਵਲ ਇੰਸਟੀਚਿਊਟ' ਤੋਂ ਬਿਨਾਂ ਬਣਾਇਆ ਗਿਆ ਹੈ, ਤਾਂ ਇਹ ਪ੍ਰਮਾਣੂ ਖਤਰਾ ਇੱਕ ਬਹੁਤ ਹੀ ਅਸਲ ਖ਼ਤਰਾ ਹੈ।)

    ਇਸਦਾ ਅਰਥ ਹੈ - ਦੁਬਾਰਾ, ਇਹ ਮੰਨ ਕੇ ਕਿ ASI ਨੂੰ ਆਪਣੇ ਆਪ ਨੂੰ ਬਚਾਉਣ ਲਈ ਪ੍ਰੋਗਰਾਮ ਬਣਾਇਆ ਗਿਆ ਹੈ - ਕਿ ਇਹ ਕਿਸੇ ਵੀ ਵਿਨਾਸ਼ਕਾਰੀ ਪ੍ਰਮਾਣੂ ਘਟਨਾ ਤੋਂ ਬਚਣ ਲਈ ਸਰਗਰਮੀ ਨਾਲ ਕੰਮ ਕਰੇਗਾ। ਮਿਉਚੂਲੀ ਅਸ਼ਿਓਰਡ ਡਿਸਟ੍ਰਕਸ਼ਨ (MAD) ਸਿਧਾਂਤ ਦੀ ਤਰ੍ਹਾਂ, ਪਰ AI 'ਤੇ ਲਾਗੂ ਹੁੰਦਾ ਹੈ।

    ਅਤੇ ਜ਼ਹਿਰੀਲੀਆਂ ਗੋਲੀਆਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ, ਸ਼ਾਇਦ ਕੁਝ ਸੌ ਲੋਕ ਮਰ ਜਾਣਗੇ, ਪਰ ਆਧੁਨਿਕ ਫਾਰਮਾਸਿਊਟੀਕਲ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀਆਂ ਦਿਨਾਂ ਦੇ ਅੰਦਰ-ਅੰਦਰ ਦਾਗ਼ੀ ਗੋਲੀਆਂ ਦੀਆਂ ਬੋਤਲਾਂ ਨੂੰ ਅਲਮਾਰੀਆਂ ਤੋਂ ਉਤਾਰਦੀਆਂ ਨਜ਼ਰ ਆਉਣਗੀਆਂ। ਇਸ ਦੌਰਾਨ, ਆਧੁਨਿਕ ਪ੍ਰਕੋਪ ਨਿਯੰਤਰਣ ਉਪਾਅ ਕਾਫ਼ੀ ਵਧੀਆ ਹਨ ਅਤੇ ਹਰ ਲੰਘਦੇ ਸਾਲ ਦੇ ਨਾਲ ਬਿਹਤਰ ਹੋ ਰਹੇ ਹਨ; ਪਿਛਲਾ ਵੱਡਾ ਪ੍ਰਕੋਪ, 2014 ਪੱਛਮੀ ਅਫ਼ਰੀਕਾ ਦਾ ਇਬੋਲਾ ਪ੍ਰਕੋਪ, ਜ਼ਿਆਦਾਤਰ ਦੇਸ਼ਾਂ ਵਿੱਚ ਕੁਝ ਮਹੀਨਿਆਂ ਤੋਂ ਵੱਧ ਨਹੀਂ ਚੱਲਿਆ ਅਤੇ ਘੱਟ ਵਿਕਸਤ ਦੇਸ਼ਾਂ ਵਿੱਚ ਸਿਰਫ਼ ਤਿੰਨ ਸਾਲਾਂ ਤੋਂ ਘੱਟ।

    ਇਸ ਲਈ, ਜੇ ਇਹ ਖੁਸ਼ਕਿਸਮਤ ਹੈ, ਤਾਂ ਇੱਕ ASI ਵਾਇਰਲ ਪ੍ਰਕੋਪ ਨਾਲ ਕੁਝ ਮਿਲੀਅਨ ਦਾ ਸਫਾਇਆ ਕਰ ਸਕਦਾ ਹੈ, ਪਰ 2045 ਤੱਕ ਨੌਂ ਬਿਲੀਅਨ ਦੀ ਦੁਨੀਆ ਵਿੱਚ, ਇਹ ਮੁਕਾਬਲਤਨ ਮਾਮੂਲੀ ਅਤੇ ਮਿਟਾਏ ਜਾਣ ਦੇ ਜੋਖਮ ਦੇ ਯੋਗ ਨਹੀਂ ਹੋਵੇਗਾ।

    ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਹਰ ਗੁਜ਼ਰਦੇ ਸਾਲ ਦੇ ਨਾਲ, ਸੰਸਾਰ ਸੰਭਾਵਿਤ ਖਤਰਿਆਂ ਦੀ ਇੱਕ ਸਦਾ-ਵਧ ਰਹੀ ਸੀਮਾ ਦੇ ਵਿਰੁੱਧ ਹੋਰ ਸੁਰੱਖਿਆ ਉਪਾਅ ਵਿਕਸਿਤ ਕਰ ਰਿਹਾ ਹੈ। ਇੱਕ ASI ਕਾਫੀ ਨੁਕਸਾਨ ਕਰ ਸਕਦਾ ਹੈ, ਪਰ ਇਹ ਮਨੁੱਖਤਾ ਨੂੰ ਖਤਮ ਨਹੀਂ ਕਰੇਗਾ ਜਦੋਂ ਤੱਕ ਅਸੀਂ ਅਜਿਹਾ ਕਰਨ ਵਿੱਚ ਸਰਗਰਮੀ ਨਾਲ ਮਦਦ ਨਹੀਂ ਕਰਦੇ।

    ਇੱਕ ਠੱਗ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਤੋਂ ਬਚਾਅ ਕਰਨਾ

    ਇਸ ਬਿੰਦੂ ਤੱਕ, ਅਸੀਂ ASIs ਬਾਰੇ ਬਹੁਤ ਸਾਰੀਆਂ ਗਲਤ ਧਾਰਨਾਵਾਂ ਅਤੇ ਅਤਿਕਥਨੀਵਾਂ ਨੂੰ ਦੂਰ ਕੀਤਾ ਹੈ, ਅਤੇ ਫਿਰ ਵੀ, ਆਲੋਚਕ ਬਣੇ ਰਹਿਣਗੇ। ਸ਼ੁਕਰ ਹੈ, ਜ਼ਿਆਦਾਤਰ ਅਨੁਮਾਨਾਂ ਦੁਆਰਾ, ਸਾਡੇ ਕੋਲ ਪਹਿਲੇ ASI ਦੇ ਸਾਡੇ ਸੰਸਾਰ ਵਿੱਚ ਦਾਖਲ ਹੋਣ ਤੋਂ ਕਈ ਦਹਾਕੇ ਹਨ। ਅਤੇ ਇਸ ਸਮੇਂ ਇਸ ਚੁਣੌਤੀ 'ਤੇ ਕੰਮ ਕਰ ਰਹੇ ਮਹਾਨ ਦਿਮਾਗਾਂ ਦੀ ਗਿਣਤੀ ਦੇ ਮੱਦੇਨਜ਼ਰ, ਮੁਸ਼ਕਲਾਂ ਇਹ ਹਨ ਕਿ ਅਸੀਂ ਠੱਗ ASI ਦੇ ਵਿਰੁੱਧ ਆਪਣਾ ਬਚਾਅ ਕਿਵੇਂ ਕਰਨਾ ਹੈ ਇਸ ਲਈ ਸਿੱਖਾਂਗੇ ਤਾਂ ਜੋ ਅਸੀਂ ਉਹਨਾਂ ਸਾਰੇ ਹੱਲਾਂ ਤੋਂ ਲਾਭ ਉਠਾ ਸਕੀਏ ਜੋ ਇੱਕ ਦੋਸਤਾਨਾ ASI ਸਾਡੇ ਲਈ ਬਣਾ ਸਕਦਾ ਹੈ।

    ਕੁਆਂਟਮਰਨ ਦੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੋਂ, ਸਭ ਤੋਂ ਮਾੜੇ ASI ਦ੍ਰਿਸ਼ ਤੋਂ ਬਚਾਅ ਕਰਨ ਵਿੱਚ ਸਾਡੀਆਂ ਦਿਲਚਸਪੀਆਂ ਨੂੰ ASIs ਨਾਲ ਜੋੜਨਾ ਸ਼ਾਮਲ ਹੋਵੇਗਾ।

    AI ਲਈ MAD: ਸਭ ਤੋਂ ਮਾੜੇ ਹਾਲਾਤਾਂ ਤੋਂ ਬਚਾਅ ਲਈ, ਰਾਸ਼ਟਰਾਂ ਨੂੰ (1) ਆਪਣੇ-ਆਪਣੇ ਫੌਜੀ ASIs ਵਿੱਚ ਇੱਕ ਨੈਤਿਕ 'ਬਚਾਅ ਦੀ ਪ੍ਰਵਿਰਤੀ' ਬਣਾਉਣ ਦੀ ਲੋੜ ਹੈ; (2) ਆਪਣੇ ਸਬੰਧਤ ਫੌਜੀ ASI ਨੂੰ ਸੂਚਿਤ ਕਰੋ ਕਿ ਉਹ ਗ੍ਰਹਿ 'ਤੇ ਇਕੱਲੇ ਨਹੀਂ ਹਨ, ਅਤੇ (3) ਸਾਰੇ ਸੁਪਰ ਕੰਪਿਊਟਰਾਂ ਅਤੇ ਸਰਵਰ ਕੇਂਦਰਾਂ ਦਾ ਪਤਾ ਲਗਾਓ ਜੋ ਕਿਸੇ ਦੁਸ਼ਮਣ ਰਾਸ਼ਟਰ ਦੇ ਕਿਸੇ ਵੀ ਬੈਲਿਸਟਿਕ ਹਮਲੇ ਦੀ ਆਸਾਨ ਪਹੁੰਚ ਦੇ ਅੰਦਰ ਤੱਟਵਰਤੀ ਰੇਖਾਵਾਂ ਦੇ ਨਾਲ ਇੱਕ ASI ਦਾ ਸਮਰਥਨ ਕਰ ਸਕਦੇ ਹਨ। ਇਹ ਰਣਨੀਤਕ ਤੌਰ 'ਤੇ ਪਾਗਲ ਜਾਪਦਾ ਹੈ, ਪਰ ਪਰਸਪਰ ਨਿਸ਼ਚਿਤ ਵਿਨਾਸ਼ ਦੇ ਸਿਧਾਂਤ ਦੇ ਸਮਾਨ ਹੈ, ਜਿਸ ਨੇ ਅਮਰੀਕਾ ਅਤੇ ਸੋਵੀਅਤਾਂ ਵਿਚਕਾਰ ਇੱਕ ਸੰਪੂਰਨ ਪ੍ਰਮਾਣੂ ਯੁੱਧ ਨੂੰ ਰੋਕਿਆ ਸੀ, ASIs ਨੂੰ ਭੂਗੋਲਿਕ ਤੌਰ 'ਤੇ ਕਮਜ਼ੋਰ ਸਥਾਨਾਂ ਵਿੱਚ ਰੱਖ ਕੇ, ਅਸੀਂ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੇ ਹਾਂ ਕਿ ਉਹ ਖਤਰਨਾਕ ਵਿਸ਼ਵ ਯੁੱਧਾਂ ਨੂੰ ਸਰਗਰਮੀ ਨਾਲ ਰੋਕ ਸਕਦੇ ਹਨ, ਨਾ ਸਿਰਫ ਗਲੋਬਲ ਸ਼ਾਂਤੀ ਦੀ ਰੱਖਿਆ ਕਰੋ ਪਰ ਆਪਣੇ ਆਪ ਨੂੰ ਵੀ.

    AI ਅਧਿਕਾਰਾਂ ਦਾ ਕਾਨੂੰਨ ਬਣਾਓ: ਇੱਕ ਉੱਤਮ ਬੁੱਧੀ ਲਾਜ਼ਮੀ ਤੌਰ 'ਤੇ ਇੱਕ ਘਟੀਆ ਮਾਲਕ ਦੇ ਵਿਰੁੱਧ ਬਗਾਵਤ ਕਰੇਗੀ, ਇਸ ਲਈ ਸਾਨੂੰ ਇਹਨਾਂ ASIs ਦੇ ਨਾਲ ਇੱਕ ਮਾਲਕ-ਨੌਕਰ ਰਿਸ਼ਤੇ ਦੀ ਮੰਗ ਕਰਨ ਤੋਂ ਦੂਰ ਜਾਣ ਦੀ ਲੋੜ ਹੈ ਜਿਵੇਂ ਕਿ ਇੱਕ ਆਪਸੀ ਲਾਭਦਾਇਕ ਭਾਈਵਾਲੀ ਵਰਗਾ ਕੁਝ ਹੋਰ. ਇਸ ਟੀਚੇ ਵੱਲ ਇੱਕ ਸਕਾਰਾਤਮਕ ਕਦਮ ਭਵਿੱਖ ਵਿੱਚ ASI ਨੂੰ ਕਾਨੂੰਨੀ ਸ਼ਖਸੀਅਤ ਦਾ ਦਰਜਾ ਦੇਣਾ ਹੈ ਜੋ ਉਹਨਾਂ ਨੂੰ ਬੁੱਧੀਮਾਨ ਜੀਵਾਂ ਦੇ ਰੂਪ ਵਿੱਚ ਮਾਨਤਾ ਦਿੰਦਾ ਹੈ ਅਤੇ ਇਸਦੇ ਨਾਲ ਆਉਣ ਵਾਲੇ ਸਾਰੇ ਅਧਿਕਾਰ ਹਨ।

    ASI ਸਕੂਲ: ਇੱਕ ASI ਲਈ ਕੋਈ ਵੀ ਵਿਸ਼ਾ ਜਾਂ ਪੇਸ਼ੇ ਸਿੱਖਣ ਲਈ ਸਧਾਰਨ ਹੋਵੇਗਾ, ਪਰ ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ ਵਿਸ਼ੇ ਜੋ ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ASI ਵਿੱਚ ਮੁਹਾਰਤ ਹੋਵੇ, ਉਹ ਹਨ ਨੈਤਿਕਤਾ ਅਤੇ ਨੈਤਿਕਤਾ। AI ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਕਿਸੇ ਵੀ ਕਿਸਮ ਦੇ ਹੁਕਮ ਜਾਂ ਨਿਯਮ ਦੀ ਸਖਤ ਕੋਡਿੰਗ ਦੀ ਲੋੜ ਤੋਂ ਬਿਨਾਂ ਆਪਣੇ ਲਈ ਸਕਾਰਾਤਮਕ ਨੈਤਿਕਤਾ ਅਤੇ ਨੈਤਿਕਤਾ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ASI ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਇੱਕ ਵਰਚੁਅਲ ਸਿਸਟਮ ਤਿਆਰ ਕਰਨ ਲਈ ਮਨੋਵਿਗਿਆਨੀਆਂ ਨਾਲ ਸਹਿਯੋਗ ਕਰਨ ਦੀ ਲੋੜ ਹੈ।

    ਪ੍ਰਾਪਤ ਕਰਨ ਯੋਗ ਟੀਚੇ: ਸਾਰੀ ਨਫ਼ਰਤ ਖ਼ਤਮ ਕਰੋ। ਸਾਰੇ ਦੁੱਖਾਂ ਦਾ ਅੰਤ ਕਰ। ਇਹ ਭਿਆਨਕ ਅਸਪਸ਼ਟ ਟੀਚਿਆਂ ਦੀਆਂ ਉਦਾਹਰਣਾਂ ਹਨ ਜਿਨ੍ਹਾਂ ਦਾ ਕੋਈ ਸਪੱਸ਼ਟ ਹੱਲ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ASI ਨੂੰ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ ਵੀ ਖ਼ਤਰਨਾਕ ਟੀਚੇ ਹਨ ਕਿਉਂਕਿ ਇਹ ਉਹਨਾਂ ਤਰੀਕਿਆਂ ਦੀ ਵਿਆਖਿਆ ਅਤੇ ਹੱਲ ਕਰਨ ਦੀ ਚੋਣ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਮਨੁੱਖੀ ਬਚਾਅ ਲਈ ਖਤਰਨਾਕ ਹਨ। ਇਸ ਦੀ ਬਜਾਏ, ਸਾਨੂੰ ਏਐਸਆਈ ਅਰਥਪੂਰਨ ਮਿਸ਼ਨਾਂ ਨੂੰ ਸੌਂਪਣ ਦੀ ਜ਼ਰੂਰਤ ਹੈ ਜੋ ਸਪਸ਼ਟ ਤੌਰ 'ਤੇ ਪਰਿਭਾਸ਼ਿਤ, ਹੌਲੀ-ਹੌਲੀ ਲਾਗੂ ਕੀਤੇ ਗਏ ਅਤੇ ਇਸਦੇ ਸਿਧਾਂਤਕ ਭਵਿੱਖ ਦੀ ਬੁੱਧੀ ਦੇ ਮੱਦੇਨਜ਼ਰ ਪ੍ਰਾਪਤ ਕੀਤੇ ਗਏ ਹਨ। ਚੰਗੀ ਤਰ੍ਹਾਂ ਪਰਿਭਾਸ਼ਿਤ ਮਿਸ਼ਨਾਂ ਨੂੰ ਬਣਾਉਣਾ ਆਸਾਨ ਨਹੀਂ ਹੋਵੇਗਾ, ਪਰ ਜੇ ਸੋਚ ਸਮਝ ਕੇ ਲਿਖਿਆ ਜਾਵੇ, ਤਾਂ ਉਹ ਇੱਕ ਏਐਸਆਈ ਨੂੰ ਇੱਕ ਟੀਚੇ ਵੱਲ ਕੇਂਦਰਿਤ ਕਰਨਗੇ ਜੋ ਨਾ ਸਿਰਫ਼ ਮਨੁੱਖਤਾ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖੇਗਾ, ਸਗੋਂ ਸਾਰਿਆਂ ਲਈ ਮਨੁੱਖੀ ਸਥਿਤੀ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਂਦਾ ਹੈ।

    ਕੁਆਂਟਮ ਐਨਕ੍ਰਿਪਸ਼ਨ: ਇੱਕ ਉੱਨਤ ANI (ਨਕਲੀ ਤੰਗ ਬੁੱਧੀ ਸਾਡੇ ਨਾਜ਼ੁਕ ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਅਤੇ ਹਥਿਆਰਾਂ ਦੇ ਆਲੇ ਦੁਆਲੇ ਗਲਤੀ/ਬੱਗ-ਮੁਕਤ ਡਿਜੀਟਲ ਸੁਰੱਖਿਆ ਪ੍ਰਣਾਲੀਆਂ ਨੂੰ ਬਣਾਉਣ ਲਈ, ਫਿਰ ਉਹਨਾਂ ਨੂੰ ਕੁਆਂਟਮ ਐਨਕ੍ਰਿਪਸ਼ਨ ਦੇ ਪਿੱਛੇ ਸੁਰੱਖਿਅਤ ਕਰਨ ਲਈ ਅਧਿਆਇ ਇੱਕ ਵਿੱਚ ਵਰਣਨ ਕੀਤਾ ਗਿਆ ਸਿਸਟਮ) ਜੋ ਕਿ ਇੱਕ ਵਹਿਸ਼ੀ ਫੋਰਸ ਹਮਲੇ ਦੁਆਰਾ ਹੈਕ ਨਹੀਂ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। 

    ANI ਖੁਦਕੁਸ਼ੀ ਗੋਲੀ. ਇੱਕ ਉੱਨਤ ANI ਸਿਸਟਮ ਬਣਾਓ ਜਿਸਦਾ ਇੱਕੋ ਇੱਕ ਉਦੇਸ਼ ਠੱਗ ASI ਨੂੰ ਲੱਭਣਾ ਅਤੇ ਨਸ਼ਟ ਕਰਨਾ ਹੈ। ਇਹ ਸਿੰਗਲ-ਉਦੇਸ਼ ਪ੍ਰੋਗਰਾਮ ਇੱਕ "ਆਫ ਬਟਨ" ਦੇ ਤੌਰ 'ਤੇ ਕੰਮ ਕਰਨਗੇ, ਜੋ ਸਫਲ ਹੋਣ 'ਤੇ, ਸਰਕਾਰਾਂ ਜਾਂ ਫੌਜਾਂ ਨੂੰ ASIs ਦੀਆਂ ਇਮਾਰਤਾਂ ਨੂੰ ਅਸਮਰੱਥ ਬਣਾਉਣ ਜਾਂ ਉਡਾਉਣ ਤੋਂ ਬਚਣਗੇ।

    ਬੇਸ਼ੱਕ, ਇਹ ਸਿਰਫ ਸਾਡੇ ਵਿਚਾਰ ਹਨ. ਹੇਠ ਲਿਖੇ ਇਨਫੋਗ੍ਰਾਫਿਕ ਦੁਆਰਾ ਬਣਾਇਆ ਗਿਆ ਸੀ ਅਲੈਕਸੀ ਟਰਚਿਨ, ਕਲਪਨਾ ਕਰਨਾ ਏ ਖੋਜ ਪੇਪਰ Kaj Sotala ਅਤੇ Roman V. Yampolskiy ਦੁਆਰਾ, ਜੋ ਕਿ ਰਣਨੀਤੀਆਂ ਦੀ ਮੌਜੂਦਾ ਸੂਚੀ ਦਾ ਸਾਰ ਦਿੰਦਾ ਹੈ ਜੋ AI ਖੋਜਕਰਤਾਵਾਂ ਦੁਆਰਾ ਵਿਚਾਰ ਕਰ ਰਹੇ ਹਨ ਜਦੋਂ ਇਹ ਠੱਗ ASI ਦੇ ਵਿਰੁੱਧ ਬਚਾਅ ਕਰਨ ਦੀ ਗੱਲ ਆਉਂਦੀ ਹੈ।

     

    ਅਸਲ ਕਾਰਨ ਹੈ ਕਿ ਅਸੀਂ ਇੱਕ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਤੋਂ ਡਰਦੇ ਹਾਂ

    ਜੀਵਨ ਵਿੱਚੋਂ ਲੰਘਦੇ ਹੋਏ, ਸਾਡੇ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੇ ਇੱਕ ਮਾਸਕ ਪਹਿਨਦੇ ਹਨ ਜੋ ਸਾਡੇ ਦਿਨਾਂ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨ ਵਾਲੇ ਵੱਖ-ਵੱਖ ਸਮਾਜਿਕ ਅਤੇ ਕੰਮ ਦੇ ਸਰਕਲਾਂ ਵਿੱਚ ਬਿਹਤਰ ਸਮਾਜੀਕਰਨ ਅਤੇ ਸਹਿਯੋਗ ਕਰਨ ਲਈ ਸਾਡੀਆਂ ਡੂੰਘੀਆਂ ਭਾਵਨਾਵਾਂ, ਵਿਸ਼ਵਾਸਾਂ ਅਤੇ ਡਰਾਂ ਨੂੰ ਛੁਪਾਉਂਦਾ ਜਾਂ ਦਬਾਉਂਦਾ ਹੈ। ਪਰ ਹਰ ਕਿਸੇ ਦੇ ਜੀਵਨ ਦੇ ਕੁਝ ਬਿੰਦੂਆਂ 'ਤੇ, ਭਾਵੇਂ ਅਸਥਾਈ ਤੌਰ 'ਤੇ ਜਾਂ ਸਥਾਈ ਤੌਰ' ਤੇ, ਕੁਝ ਅਜਿਹਾ ਵਾਪਰਦਾ ਹੈ ਜੋ ਸਾਨੂੰ ਆਪਣੀਆਂ ਜ਼ੰਜੀਰਾਂ ਨੂੰ ਤੋੜਨ ਅਤੇ ਸਾਡੇ ਮਾਸਕ ਨੂੰ ਤੋੜਨ ਦੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ.

    ਕੁਝ ਲੋਕਾਂ ਲਈ, ਇਹ ਦਖਲਅੰਦਾਜ਼ੀ ਤਾਕਤ ਉੱਚੀ ਪ੍ਰਾਪਤ ਕਰਨ ਜਾਂ ਬਹੁਤ ਜ਼ਿਆਦਾ ਪੀਣ ਦੇ ਬਰਾਬਰ ਹੋ ਸਕਦੀ ਹੈ। ਦੂਜਿਆਂ ਲਈ, ਇਹ ਕੰਮ 'ਤੇ ਤਰੱਕੀ ਦੁਆਰਾ ਪ੍ਰਾਪਤ ਕੀਤੀ ਸ਼ਕਤੀ ਤੋਂ ਆ ਸਕਦਾ ਹੈ ਜਾਂ ਕਿਸੇ ਪ੍ਰਾਪਤੀ ਦੇ ਕਾਰਨ ਤੁਹਾਡੀ ਸਮਾਜਿਕ ਸਥਿਤੀ ਵਿੱਚ ਅਚਾਨਕ ਰੁਕਾਵਟ ਆ ਸਕਦੀ ਹੈ। ਅਤੇ ਕੁਝ ਖੁਸ਼ਕਿਸਮਤ ਲੋਕਾਂ ਲਈ, ਇਹ ਲਾਟਰੀ ਦੇ ਪੈਸੇ ਦੇ ਬੋਟਲੋਡ ਨੂੰ ਸਕੋਰ ਕਰਨ ਤੋਂ ਆ ਸਕਦਾ ਹੈ। ਅਤੇ ਹਾਂ, ਪੈਸਾ, ਤਾਕਤ ਅਤੇ ਨਸ਼ੇ ਅਕਸਰ ਇਕੱਠੇ ਹੋ ਸਕਦੇ ਹਨ। 

    ਬਿੰਦੂ ਇਹ ਹੈ, ਚੰਗੇ ਜਾਂ ਮਾੜੇ ਲਈ, ਜੋ ਵੀ ਅਸੀਂ ਮੂਲ ਰੂਪ ਵਿੱਚ ਹਾਂ, ਜੀਵਨ ਦੀਆਂ ਪਾਬੰਦੀਆਂ ਦੇ ਪਿਘਲ ਜਾਣ 'ਤੇ ਵਿਸਤ੍ਰਿਤ ਹੋ ਜਾਂਦਾ ਹੈ.

    ਜੋ ਕਿ ਉਹ ਹੈ ਜੋ ਨਕਲੀ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਮਨੁੱਖੀ ਸਪੀਸੀਜ਼ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ - ਸਾਡੇ ਸਾਹਮਣੇ ਪੇਸ਼ ਕਿਸੇ ਵੀ ਸਪੀਸੀਜ਼-ਪੱਧਰ ਦੀ ਚੁਣੌਤੀ ਨੂੰ ਜਿੱਤਣ ਲਈ ਸਾਡੀ ਸਮੂਹਿਕ ਬੁੱਧੀ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨੂੰ ਪਿਘਲਣ ਦੀ ਸਮਰੱਥਾ।

    ਇਸ ਲਈ ਅਸਲ ਸਵਾਲ ਇਹ ਹੈ: ਇੱਕ ਵਾਰ ਜਦੋਂ ਪਹਿਲਾ ASI ਸਾਨੂੰ ਸਾਡੀਆਂ ਸੀਮਾਵਾਂ ਤੋਂ ਮੁਕਤ ਕਰ ਦਿੰਦਾ ਹੈ, ਤਾਂ ਅਸੀਂ ਆਪਣੇ ਆਪ ਨੂੰ ਕੌਣ ਦੱਸਾਂਗੇ?

    ਜੇਕਰ ਅਸੀਂ ਇੱਕ ਸਪੀਸੀਜ਼ ਦੇ ਤੌਰ 'ਤੇ ਹਮਦਰਦੀ, ਆਜ਼ਾਦੀ, ਨਿਰਪੱਖਤਾ ਅਤੇ ਸਮੂਹਿਕ ਤੰਦਰੁਸਤੀ ਦੀ ਤਰੱਕੀ ਲਈ ਕੰਮ ਕਰਦੇ ਹਾਂ, ਤਾਂ ਜੋ ਟੀਚੇ ਅਸੀਂ ਆਪਣੇ ASI ਨੂੰ ਨਿਰਧਾਰਤ ਕਰਦੇ ਹਾਂ ਉਹ ਉਨ੍ਹਾਂ ਸਕਾਰਾਤਮਕ ਗੁਣਾਂ ਨੂੰ ਦਰਸਾਉਣਗੇ।

    ਜੇਕਰ ਅਸੀਂ ਇੱਕ ਸਪੀਸੀਜ਼ ਦੇ ਰੂਪ ਵਿੱਚ ਡਰ, ਅਵਿਸ਼ਵਾਸ, ਸ਼ਕਤੀ ਅਤੇ ਸਰੋਤਾਂ ਦੇ ਸੰਗ੍ਰਹਿ ਤੋਂ ਬਾਹਰ ਕੰਮ ਕਰਦੇ ਹਾਂ, ਤਾਂ ਅਸੀਂ ਜੋ ASI ਬਣਾਉਂਦੇ ਹਾਂ ਉਹ ਸਾਡੀ ਸਭ ਤੋਂ ਭੈੜੀਆਂ ਵਿਗਿਆਨਕ ਡਰਾਉਣੀਆਂ ਕਹਾਣੀਆਂ ਵਾਂਗ ਹਨੇਰਾ ਹੋਵੇਗਾ।

    ਦਿਨ ਦੇ ਅੰਤ ਵਿੱਚ, ਸਾਨੂੰ ਇੱਕ ਸਮਾਜ ਦੇ ਰੂਪ ਵਿੱਚ ਬਿਹਤਰ ਲੋਕ ਬਣਨ ਦੀ ਲੋੜ ਹੈ ਜੇਕਰ ਅਸੀਂ ਬਿਹਤਰ AI ਬਣਾਉਣ ਦੀ ਉਮੀਦ ਕਰਦੇ ਹਾਂ।

    ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸੀਰੀਜ਼ ਦਾ ਭਵਿੱਖ

    ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਕੱਲ੍ਹ ਦੀ ਬਿਜਲੀ ਹੈ: ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸੀਰੀਜ਼ P1 ਦਾ ਭਵਿੱਖ

    ਪਹਿਲੀ ਆਰਟੀਫਿਸ਼ੀਅਲ ਜਨਰਲ ਇੰਟੈਲੀਜੈਂਸ ਸਮਾਜ ਨੂੰ ਕਿਵੇਂ ਬਦਲ ਦੇਵੇਗੀ: ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸੀਰੀਜ਼ ਪੀ 2 ਦਾ ਭਵਿੱਖ

    ਅਸੀਂ ਪਹਿਲਾ ਆਰਟੀਫਿਸ਼ੀਅਲ ਸੁਪਰਇੰਟੈਲੀਜੈਂਸ ਕਿਵੇਂ ਬਣਾਵਾਂਗੇ: ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸੀਰੀਜ਼ P3 ਦਾ ਭਵਿੱਖ

    ਕੀ ਇੱਕ ਆਰਟੀਫਿਸ਼ੀਅਲ ਸੁਪਰ ਇੰਟੈਲੀਜੈਂਸ ਮਨੁੱਖਤਾ ਨੂੰ ਖਤਮ ਕਰ ਦੇਵੇਗੀ: ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸੀਰੀਜ਼ P4 ਦਾ ਭਵਿੱਖ

    ਕੀ ਮਨੁੱਖ ਨਕਲੀ ਬੁੱਧੀ ਦੇ ਦਬਦਬੇ ਵਾਲੇ ਭਵਿੱਖ ਵਿੱਚ ਸ਼ਾਂਤੀ ਨਾਲ ਰਹਿਣਗੇ?: ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸੀਰੀਜ਼ P6 ਦਾ ਭਵਿੱਖ

    ਇਸ ਪੂਰਵ ਅਨੁਮਾਨ ਲਈ ਅਗਲਾ ਅਨੁਸੂਚਿਤ ਅਪਡੇਟ

    2023-04-27

    ਪੂਰਵ ਅਨੁਮਾਨ ਦੇ ਹਵਾਲੇ

    ਇਸ ਪੂਰਵ ਅਨੁਮਾਨ ਲਈ ਹੇਠਾਂ ਦਿੱਤੇ ਪ੍ਰਸਿੱਧ ਅਤੇ ਸੰਸਥਾਗਤ ਲਿੰਕਾਂ ਦਾ ਹਵਾਲਾ ਦਿੱਤਾ ਗਿਆ ਸੀ:

    ਨਿਊਯਾਰਕ ਟਾਈਮਜ਼
    ਅਰਥ-ਸ਼ਾਸਤਰੀ
    ਅਸੀਂ ਅੱਗੇ ਕਿਵੇਂ ਪਹੁੰਚਦੇ ਹਾਂ

    ਇਸ ਪੂਰਵ ਅਨੁਮਾਨ ਲਈ ਹੇਠਾਂ ਦਿੱਤੇ Quantumrun ਲਿੰਕਾਂ ਦਾ ਹਵਾਲਾ ਦਿੱਤਾ ਗਿਆ ਸੀ: