ಕೃತಕ ಸೂಪರ್‌ಇಂಟೆಲಿಜೆನ್ಸ್‌ನ ವಿರುದ್ಧ ಮಾನವರು ಹೇಗೆ ರಕ್ಷಿಸಿಕೊಳ್ಳುತ್ತಾರೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಭವಿಷ್ಯ P5

ಚಿತ್ರ ಕ್ರೆಡಿಟ್: ಕ್ವಾಂಟಮ್ರನ್

ಕೃತಕ ಸೂಪರ್‌ಇಂಟೆಲಿಜೆನ್ಸ್‌ನ ವಿರುದ್ಧ ಮಾನವರು ಹೇಗೆ ರಕ್ಷಿಸಿಕೊಳ್ಳುತ್ತಾರೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಭವಿಷ್ಯ P5

    ವರ್ಷವು 65,000 BCE, ಮತ್ತು a ಥೈಲ್ಯಾಕೊಲಿಯೋ, ನೀವು ಮತ್ತು ನಿಮ್ಮ ರೀತಿಯ ಪ್ರಾಚೀನ ಆಸ್ಟ್ರೇಲಿಯಾದ ಮಹಾನ್ ಬೇಟೆಗಾರರು. ನೀವು ಭೂಮಿಯನ್ನು ಮುಕ್ತವಾಗಿ ಸುತ್ತಾಡಿದ್ದೀರಿ ಮತ್ತು ನಿಮ್ಮೊಂದಿಗೆ ಭೂಮಿಯನ್ನು ಆಕ್ರಮಿಸಿಕೊಂಡಿರುವ ಸಹ ಪರಭಕ್ಷಕ ಮತ್ತು ಬೇಟೆಯೊಂದಿಗೆ ಸಮತೋಲನದಲ್ಲಿ ವಾಸಿಸುತ್ತಿದ್ದೀರಿ. ಋತುಗಳು ಬದಲಾವಣೆಯನ್ನು ತಂದವು, ಆದರೆ ಪ್ರಾಣಿ ಸಾಮ್ರಾಜ್ಯದಲ್ಲಿ ನಿಮ್ಮ ಸ್ಥಾನಮಾನವು ನೀವು ಮತ್ತು ನಿಮ್ಮ ಪೂರ್ವಜರು ನೆನಪಿಟ್ಟುಕೊಳ್ಳುವವರೆಗೂ ಸವಾಲು ಮಾಡದೆ ಉಳಿಯಿತು. ನಂತರ ಒಂದು ದಿನ, ಹೊಸಬರು ಕಾಣಿಸಿಕೊಂಡರು.

    ಅವರು ದೈತ್ಯ ನೀರಿನ ಗೋಡೆಯಿಂದ ಬಂದರು ಎಂದು ವದಂತಿಗಳಿವೆ, ಆದರೆ ಈ ಜೀವಿಗಳು ಭೂಮಿಯಲ್ಲಿ ಹೆಚ್ಚು ಆರಾಮದಾಯಕವಾಗಿ ವಾಸಿಸುತ್ತಿದ್ದವು. ಈ ಜೀವಿಗಳನ್ನು ನೀವೇ ನೋಡಬೇಕಾಗಿತ್ತು.

    ಇದು ಕೆಲವು ದಿನಗಳನ್ನು ತೆಗೆದುಕೊಂಡಿತು, ಆದರೆ ನೀವು ಅಂತಿಮವಾಗಿ ಕರಾವಳಿಗೆ ಬಂದಿದ್ದೀರಿ. ಆಕಾಶದಲ್ಲಿ ಬೆಂಕಿಯು ಮೂಡುತ್ತಿತ್ತು, ಈ ಜೀವಿಗಳ ಮೇಲೆ ಕಣ್ಣಿಡಲು ಪರಿಪೂರ್ಣ ಸಮಯ, ಬಹುಶಃ ಅವು ಹೇಗೆ ರುಚಿಯಾಗಿವೆ ಎಂಬುದನ್ನು ನೋಡಲು ಒಂದನ್ನು ತಿನ್ನಲು ಪ್ರಯತ್ನಿಸಿ.

    ನೀವು ಒಂದನ್ನು ಗುರುತಿಸಿ.

    ಅದು ಎರಡು ಕಾಲುಗಳ ಮೇಲೆ ನಡೆಯುತ್ತಿತ್ತು ಮತ್ತು ತುಪ್ಪಳವಿಲ್ಲ. ಅದು ದುರ್ಬಲವಾಗಿ ಕಾಣುತ್ತದೆ. ಪ್ರಭಾವಶಾಲಿಯಾಗದ. ಇದು ಸಾಮ್ರಾಜ್ಯದ ನಡುವೆ ಉಂಟುಮಾಡುವ ಭಯವು ಅಷ್ಟೇನೂ ಯೋಗ್ಯವಾಗಿಲ್ಲ.

    ರಾತ್ರಿಯು ಬೆಳಕನ್ನು ಬೆನ್ನಟ್ಟುವಂತೆ ನೀವು ಎಚ್ಚರಿಕೆಯಿಂದ ನಿಮ್ಮ ವಿಧಾನವನ್ನು ಮಾಡಲು ಪ್ರಾರಂಭಿಸುತ್ತೀರಿ. ನೀವು ಹತ್ತಿರವಾಗುತ್ತಿದ್ದೀರಿ. ನಂತರ ನೀವು ಫ್ರೀಜ್. ದೊಡ್ಡ ಶಬ್ದಗಳು ರಿಂಗಣಿಸುತ್ತವೆ ಮತ್ತು ನಂತರ ಅವರಲ್ಲಿ ಇನ್ನೂ ನಾಲ್ಕು ಅದರ ಹಿಂದೆ ಕಾಡಿನಿಂದ ಕಾಣಿಸಿಕೊಳ್ಳುತ್ತವೆ. ಎಷ್ಟು ಇವೆ?

    ಜೀವಿಯು ಇತರರನ್ನು ಟ್ರೀಲೈನ್‌ಗೆ ಅನುಸರಿಸುತ್ತದೆ ಮತ್ತು ನೀವು ಅನುಸರಿಸುತ್ತೀರಿ. ಮತ್ತು ನೀವು ಹೆಚ್ಚು ಮಾಡುತ್ತೀರಿ, ಈ ಜೀವಿಗಳಲ್ಲಿ ಇನ್ನೂ ಹೆಚ್ಚಿನದನ್ನು ನೀವು ಗುರುತಿಸುವವರೆಗೆ ನೀವು ಹೆಚ್ಚು ವಿಚಿತ್ರವಾದ ಶಬ್ದಗಳನ್ನು ಕೇಳುತ್ತೀರಿ. ಅವರು ಕಾಡಿನಿಂದ ದಡದ ತೀರದಲ್ಲಿ ನಿರ್ಗಮಿಸುವಾಗ ನೀವು ದೂರದಲ್ಲಿ ಹಿಂಬಾಲಿಸುತ್ತೀರಿ. ಅವುಗಳಲ್ಲಿ ಹಲವು ಇವೆ. ಆದರೆ ಹೆಚ್ಚು ಮುಖ್ಯವಾಗಿ, ಅವರೆಲ್ಲರೂ ಶಾಂತವಾಗಿ ಬೆಂಕಿಯ ಸುತ್ತಲೂ ಕುಳಿತಿದ್ದಾರೆ.

    ನೀವು ಈ ಮೊದಲು ಬೆಂಕಿಯನ್ನು ನೋಡಿದ್ದೀರಿ. ಬಿಸಿ ಋತುವಿನಲ್ಲಿ, ಆಕಾಶದಲ್ಲಿ ಬೆಂಕಿ ಕೆಲವೊಮ್ಮೆ ಭೂಮಿಗೆ ಭೇಟಿ ನೀಡುತ್ತದೆ ಮತ್ತು ಇಡೀ ಕಾಡುಗಳನ್ನು ಸುಟ್ಟುಹಾಕುತ್ತದೆ. ಈ ಜೀವಿಗಳು, ಮತ್ತೊಂದೆಡೆ, ಅವರು ಅದನ್ನು ಹೇಗಾದರೂ ನಿಯಂತ್ರಿಸುತ್ತಿದ್ದರು. ಯಾವ ರೀತಿಯ ಜೀವಿಗಳು ಅಂತಹ ಶಕ್ತಿಯನ್ನು ಹೊಂದಬಹುದು?

    ನೀವು ದೂರವನ್ನು ನೋಡುತ್ತೀರಿ. ದೈತ್ಯ ನೀರಿನ ಗೋಡೆಯ ಮೇಲೆ ಇನ್ನಷ್ಟು ಬರುತ್ತಿವೆ.

    ನೀವು ಒಂದು ಹೆಜ್ಜೆ ಹಿಂದಕ್ಕೆ ತೆಗೆದುಕೊಳ್ಳಿ.

    ಈ ಜೀವಿಗಳು ರಾಜ್ಯದಲ್ಲಿರುವ ಇತರರಂತೆ ಅಲ್ಲ. ಅವರು ಸಂಪೂರ್ಣವಾಗಿ ಹೊಸ ವಿಷಯ.

    ನೀವು ಬಿಡಲು ನಿರ್ಧರಿಸುತ್ತೀರಿ ಮತ್ತು ನಿಮ್ಮ ಸಂಬಂಧಿಕರನ್ನು ಎಚ್ಚರಿಸುತ್ತೀರಿ. ಅವರ ಸಂಖ್ಯೆಯು ತುಂಬಾ ದೊಡ್ಡದಾದರೆ, ಏನಾಗಬಹುದು ಎಂದು ಯಾರಿಗೆ ತಿಳಿದಿದೆ.

    ***

    ಆಸ್ಟ್ರೇಲಿಯನ್ ಖಂಡದ ಇತರ ಮೆಗಾಫೌನಾಗಳ ಜೊತೆಗೆ ಮಾನವರ ಆಗಮನದ ನಂತರ ತುಲನಾತ್ಮಕವಾಗಿ ಕಡಿಮೆ ಸಮಯದಲ್ಲಿ ಥೈಲಾಕೊಲಿಯೊ ಅಳಿವಿನಂಚಿನಲ್ಲಿದೆ ಎಂದು ನಂಬಲಾಗಿದೆ. ಯಾವುದೇ ಇತರ ಅಪೆಕ್ಸ್ ಸಸ್ತನಿ ಪರಭಕ್ಷಕಗಳು ಅದರ ಸ್ಥಾನವನ್ನು ಪಡೆದಿಲ್ಲ-ಅಂದರೆ ನೀವು ಆ ವರ್ಗದಲ್ಲಿ ಮನುಷ್ಯರನ್ನು ಪರಿಗಣಿಸದ ಹೊರತು.

    ಈ ಸಾಂಕೇತಿಕತೆಯನ್ನು ಪ್ರದರ್ಶಿಸುವುದು ಈ ಸರಣಿಯ ಅಧ್ಯಾಯದ ಕೇಂದ್ರಬಿಂದುವಾಗಿದೆ: ಭವಿಷ್ಯದ ಕೃತಕ ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್ (ASI) ನಮ್ಮೆಲ್ಲರನ್ನೂ ಬ್ಯಾಟರಿಗಳಾಗಿ ಪರಿವರ್ತಿಸುತ್ತದೆ ಮತ್ತು ನಂತರ ನಮ್ಮನ್ನು ಮ್ಯಾಟ್ರಿಕ್ಸ್‌ಗೆ ಪ್ಲಗ್ ಮಾಡುತ್ತದೆ ಅಥವಾ ವೈಜ್ಞಾನಿಕ ಕಾಲ್ಪನಿಕತೆಗೆ ಬಲಿಯಾಗುವುದನ್ನು ತಪ್ಪಿಸಲು ಮಾನವರು ಒಂದು ಮಾರ್ಗವನ್ನು ಕಂಡುಕೊಳ್ಳುತ್ತಾರೆ, AI ಡೂಮ್ಸ್ಡೇ ಪ್ಲಾಟ್?

    ಇಲ್ಲಿಯವರೆಗೆ ನಮ್ಮ ಸರಣಿಯಲ್ಲಿ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಭವಿಷ್ಯ, ನಾವು AI ಯ ನಿರ್ದಿಷ್ಟ ರೂಪದ ಧನಾತ್ಮಕ ಸಾಮರ್ಥ್ಯವನ್ನು ಒಳಗೊಂಡಂತೆ ಎಲ್ಲಾ ರೀತಿಯ AI ಅನ್ನು ಅನ್ವೇಷಿಸಿದ್ದೇವೆ, ASI: ಕೃತಕ ಜೀವಿ ಅದರ ಭವಿಷ್ಯದ ಬುದ್ಧಿವಂತಿಕೆಯು ಹೋಲಿಕೆಯಲ್ಲಿ ನಮ್ಮನ್ನು ಇರುವೆಗಳಂತೆ ಕಾಣುವಂತೆ ಮಾಡುತ್ತದೆ.

    ಆದರೆ ಈ ಬುದ್ಧಿವಂತ ಜೀವಿಯು ಮನುಷ್ಯರಿಂದ ಆದೇಶಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುವುದನ್ನು ಶಾಶ್ವತವಾಗಿ ಸ್ವೀಕರಿಸುತ್ತದೆ ಎಂದು ಯಾರು ಹೇಳಬೇಕು. ವಿಷಯಗಳು ದಕ್ಷಿಣಕ್ಕೆ ಹೋದರೆ ನಾವು ಏನು ಮಾಡುತ್ತೇವೆ? ವಂಚಕ ASI ವಿರುದ್ಧ ನಾವು ಹೇಗೆ ರಕ್ಷಿಸಿಕೊಳ್ಳುತ್ತೇವೆ?

    ಈ ಅಧ್ಯಾಯದಲ್ಲಿ, ನಾವು ಬೋಗಸ್ ಪ್ರಚೋದನೆಯನ್ನು ಕಡಿತಗೊಳಿಸುತ್ತೇವೆ-ಕನಿಷ್ಠ ಅದು 'ಮಾನವ ಅಳಿವಿನ ಮಟ್ಟ' ಅಪಾಯಗಳಿಗೆ ಸಂಬಂಧಿಸಿದೆ-ಮತ್ತು ವಿಶ್ವ ಸರ್ಕಾರಗಳಿಗೆ ಲಭ್ಯವಿರುವ ನೈಜ ಸ್ವರಕ್ಷಣೆ ಆಯ್ಕೆಗಳ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸುತ್ತೇವೆ.

    ಕೃತಕ ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್‌ನ ಎಲ್ಲಾ ಹೆಚ್ಚಿನ ಸಂಶೋಧನೆಗಳನ್ನು ನಾವು ನಿಲ್ಲಿಸಬಹುದೇ?

    ASI ಮಾನವೀಯತೆಗೆ ಒಡ್ಡಬಹುದಾದ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳನ್ನು ಗಮನಿಸಿದರೆ, ಕೇಳಬೇಕಾದ ಮೊದಲ ಸ್ಪಷ್ಟ ಪ್ರಶ್ನೆಯೆಂದರೆ: AI ಗೆ ಸಂಬಂಧಿಸಿದ ಎಲ್ಲಾ ಹೆಚ್ಚಿನ ಸಂಶೋಧನೆಗಳನ್ನು ನಾವು ನಿಲ್ಲಿಸಲು ಸಾಧ್ಯವಿಲ್ಲವೇ? ಅಥವಾ ಕನಿಷ್ಠ ASI ಅನ್ನು ರಚಿಸಲು ಅಪಾಯಕಾರಿಯಾಗಿ ಹತ್ತಿರವಾಗಬಹುದಾದ ಯಾವುದೇ ಸಂಶೋಧನೆಯನ್ನು ನಿಷೇಧಿಸುವುದೇ?

    ಸಣ್ಣ ಉತ್ತರ: ಇಲ್ಲ.

    ದೀರ್ಘ ಉತ್ತರ: ಇಲ್ಲಿ ಒಳಗೊಂಡಿರುವ ವಿವಿಧ ಆಟಗಾರರನ್ನು ನೋಡೋಣ.

    ಸಂಶೋಧನಾ ಮಟ್ಟದಲ್ಲಿ, ಪ್ರಪಂಚದಾದ್ಯಂತ ಹಲವಾರು ಸ್ಟಾರ್ಟ್‌ಅಪ್‌ಗಳು, ಕಂಪನಿಗಳು ಮತ್ತು ವಿಶ್ವವಿದ್ಯಾಲಯಗಳಿಂದ ಇಂದು ಹಲವಾರು AI ಸಂಶೋಧಕರು ಇದ್ದಾರೆ. ಒಂದು ಕಂಪನಿ ಅಥವಾ ದೇಶವು ತಮ್ಮ AI ಸಂಶೋಧನಾ ಪ್ರಯತ್ನಗಳನ್ನು ಮಿತಿಗೊಳಿಸಲು ನಿರ್ಧರಿಸಿದರೆ, ಅವರು ಬೇರೆಡೆ ಮುಂದುವರಿಯುತ್ತಾರೆ.

    ಏತನ್ಮಧ್ಯೆ, ಗ್ರಹದ ಅತ್ಯಮೂಲ್ಯ ಕಂಪನಿಗಳು ತಮ್ಮ ನಿರ್ದಿಷ್ಟ ವ್ಯವಹಾರಗಳಿಗೆ AI ಸಿಸ್ಟಮ್‌ಗಳ ಅಪ್ಲಿಕೇಶನ್‌ನಿಂದ ತಮ್ಮ ಅದೃಷ್ಟವನ್ನು ಗಳಿಸುತ್ತಿವೆ. AI ಪರಿಕರಗಳ ಅಭಿವೃದ್ಧಿಯನ್ನು ನಿಲ್ಲಿಸಲು ಅಥವಾ ಮಿತಿಗೊಳಿಸಲು ಅವರನ್ನು ಕೇಳುವುದು ಅವರ ಭವಿಷ್ಯದ ಬೆಳವಣಿಗೆಯನ್ನು ನಿಲ್ಲಿಸಲು ಅಥವಾ ಮಿತಿಗೊಳಿಸಲು ಕೇಳುವುದಕ್ಕೆ ಸಮಾನವಾಗಿರುತ್ತದೆ. ಆರ್ಥಿಕವಾಗಿ, ಇದು ಅವರ ದೀರ್ಘಾವಧಿಯ ವ್ಯವಹಾರವನ್ನು ಬೆದರಿಸುತ್ತದೆ. ಕಾನೂನುಬದ್ಧವಾಗಿ, ನಿಗಮಗಳು ತಮ್ಮ ಮಧ್ಯಸ್ಥಗಾರರಿಗೆ ನಿರಂತರವಾಗಿ ಮೌಲ್ಯವನ್ನು ನಿರ್ಮಿಸಲು ವಿಶ್ವಾಸಾರ್ಹ ಜವಾಬ್ದಾರಿಯನ್ನು ಹೊಂದಿವೆ; ಅಂದರೆ ಆ ಮೌಲ್ಯದ ಬೆಳವಣಿಗೆಯನ್ನು ಮಿತಿಗೊಳಿಸುವ ಯಾವುದೇ ಕ್ರಮವು ಮೊಕದ್ದಮೆಗೆ ಕಾರಣವಾಗಬಹುದು. ಮತ್ತು ಯಾವುದೇ ರಾಜಕಾರಣಿ AI ಸಂಶೋಧನೆಯನ್ನು ಮಿತಿಗೊಳಿಸಲು ಪ್ರಯತ್ನಿಸಿದರೆ, ಈ ದೈತ್ಯ ನಿಗಮಗಳು ತಮ್ಮ ಮನಸ್ಸು ಅಥವಾ ತಮ್ಮ ಸಹೋದ್ಯೋಗಿಗಳ ಮನಸ್ಸನ್ನು ಬದಲಾಯಿಸಲು ಅಗತ್ಯವಾದ ಲಾಬಿ ಶುಲ್ಕವನ್ನು ಪಾವತಿಸುತ್ತವೆ.

    ಯುದ್ಧಕ್ಕಾಗಿ, ಪ್ರಪಂಚದಾದ್ಯಂತದ ಭಯೋತ್ಪಾದಕರು ಮತ್ತು ಸ್ವಾತಂತ್ರ್ಯ ಹೋರಾಟಗಾರರು ಉತ್ತಮ-ಧನಸಹಾಯದ ಮಿಲಿಟರಿಗಳ ವಿರುದ್ಧ ಹೋರಾಡಲು ಗೆರಿಲ್ಲಾ ತಂತ್ರಗಳನ್ನು ಬಳಸಿದಂತೆ, ಸಣ್ಣ ರಾಷ್ಟ್ರಗಳು ಹಲವಾರು ಮಿಲಿಟರಿ ಪ್ರಯೋಜನಗಳನ್ನು ಹೊಂದಿರುವ ದೊಡ್ಡ ರಾಷ್ಟ್ರಗಳ ವಿರುದ್ಧ ಇದೇ ರೀತಿಯ ಯುದ್ಧತಂತ್ರದ ಪ್ರಯೋಜನವಾಗಿ AI ಅನ್ನು ಬಳಸಲು ಪ್ರೋತ್ಸಾಹವನ್ನು ಹೊಂದಿರುತ್ತವೆ. ಅಂತೆಯೇ, ಯುಎಸ್, ರಷ್ಯಾ ಮತ್ತು ಚೀನಾಕ್ಕೆ ಸೇರಿದಂತಹ ಉನ್ನತ ಮಿಲಿಟರಿಗಳಿಗೆ, ಮಿಲಿಟರಿ ASI ಅನ್ನು ನಿರ್ಮಿಸುವುದು ನಿಮ್ಮ ಹಿಂದಿನ ಜೇಬಿನಲ್ಲಿ ಪರಮಾಣು ಶಸ್ತ್ರಾಸ್ತ್ರಗಳ ಶಸ್ತ್ರಾಗಾರವನ್ನು ಹೊಂದುವುದಕ್ಕೆ ಸಮನಾಗಿರುತ್ತದೆ. ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಭವಿಷ್ಯದಲ್ಲಿ ಪ್ರಸ್ತುತವಾಗಿರಲು ಎಲ್ಲಾ ಮಿಲಿಟರಿಗಳು AI ಗೆ ಹಣವನ್ನು ನೀಡುವುದನ್ನು ಮುಂದುವರಿಸುತ್ತವೆ.

    ಸರ್ಕಾರಗಳ ಬಗ್ಗೆ ಹೇಗೆ? ಸತ್ಯವಾಗಿ ಹೇಳುವುದಾದರೆ, ಈ ದಿನಗಳಲ್ಲಿ (2018) ಹೆಚ್ಚಿನ ರಾಜಕಾರಣಿಗಳು ತಾಂತ್ರಿಕವಾಗಿ ಅನಕ್ಷರಸ್ಥರಾಗಿದ್ದಾರೆ ಮತ್ತು AI ಎಂದರೇನು ಅಥವಾ ಅದರ ಭವಿಷ್ಯದ ಸಾಮರ್ಥ್ಯದ ಬಗ್ಗೆ ಸ್ವಲ್ಪ ತಿಳುವಳಿಕೆಯನ್ನು ಹೊಂದಿರುತ್ತಾರೆ-ಇದು ಕಾರ್ಪೊರೇಟ್ ಹಿತಾಸಕ್ತಿಗಳಿಂದ ಅವರನ್ನು ಸುಲಭವಾಗಿ ಕುಶಲತೆಯಿಂದ ನಿರ್ವಹಿಸುತ್ತದೆ.

    ಮತ್ತು ಜಾಗತಿಕ ಮಟ್ಟದಲ್ಲಿ, 2015 ಕ್ಕೆ ಸಹಿ ಹಾಕಲು ವಿಶ್ವ ಸರ್ಕಾರಗಳನ್ನು ಮನವೊಲಿಸುವುದು ಎಷ್ಟು ಕಷ್ಟ ಎಂದು ಪರಿಗಣಿಸಿ ಪ್ಯಾರಿಸ್ ಒಪ್ಪಂದ ಹವಾಮಾನ ಬದಲಾವಣೆಯನ್ನು ನಿಭಾಯಿಸಲು-ಮತ್ತು ಒಮ್ಮೆ ಸಹಿ ಹಾಕಿದರೆ, ಅನೇಕ ಬಾಧ್ಯತೆಗಳು ಸಹ ಬದ್ಧವಾಗಿರಲಿಲ್ಲ. ಅಷ್ಟೇ ಅಲ್ಲ, ಹವಾಮಾನ ಬದಲಾವಣೆಯು ಹೆಚ್ಚು ಆಗಾಗ್ಗೆ ಮತ್ತು ತೀವ್ರ ಹವಾಮಾನ ಘಟನೆಗಳ ಮೂಲಕ ಜನರು ಭೌತಿಕವಾಗಿ ಜಾಗತಿಕವಾಗಿ ಅನುಭವಿಸುತ್ತಿರುವ ಸಮಸ್ಯೆಯಾಗಿದೆ. ಈಗ, AI ಮೇಲಿನ ಮಿತಿಗಳನ್ನು ಒಪ್ಪಿಕೊಳ್ಳುವ ಕುರಿತು ಮಾತನಾಡುವಾಗ, ಇದು ಬಹುಮಟ್ಟಿಗೆ ಅಗೋಚರವಾಗಿರುವ ಮತ್ತು ಸಾರ್ವಜನಿಕರಿಗೆ ಅಷ್ಟೇನೂ ಗ್ರಹಿಸಲಾಗದ ಸಮಸ್ಯೆಯಾಗಿದೆ, ಆದ್ದರಿಂದ AI ಅನ್ನು ಸೀಮಿತಗೊಳಿಸಲು ಯಾವುದೇ ರೀತಿಯ 'ಪ್ಯಾರಿಸ್ ಒಪ್ಪಂದ' ವನ್ನು ಖರೀದಿಸಲು ಅದೃಷ್ಟ.

    ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಅಂತಿಮವಾಗಿ ASI ಗೆ ಕಾರಣವಾಗುವ ಯಾವುದೇ ಸಂಶೋಧನೆಯನ್ನು ನಿಲ್ಲಿಸಲು ತಮ್ಮದೇ ಆದ ಉದ್ದೇಶಗಳಿಗಾಗಿ AI ಅನ್ನು ಸಂಶೋಧಿಸುವ ಹಲವಾರು ಆಸಕ್ತಿಗಳಿವೆ. 

    ನಾವು ಕೃತಕ ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ಅನ್ನು ಬಂಧಿಸಬಹುದೇ?

    ಮುಂದಿನ ಸಮಂಜಸವಾದ ಪ್ರಶ್ನೆಯೆಂದರೆ ನಾವು ಅನಿವಾರ್ಯವಾಗಿ ಒಂದನ್ನು ರಚಿಸಿದ ನಂತರ ನಾವು ASI ಅನ್ನು ಪಂಜರದಲ್ಲಿ ಇರಿಸಬಹುದೇ ಅಥವಾ ನಿಯಂತ್ರಿಸಬಹುದೇ? 

    ಸಣ್ಣ ಉತ್ತರ: ಮತ್ತೆ, ಇಲ್ಲ.

    ದೀರ್ಘ ಉತ್ತರ: ತಂತ್ರಜ್ಞಾನವನ್ನು ಒಳಗೊಂಡಿರಲು ಸಾಧ್ಯವಿಲ್ಲ.

    ಒಂದಕ್ಕಾಗಿ, ಹೊಸ ಸಾಫ್ಟ್‌ವೇರ್ ಅಥವಾ ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಸಾಫ್ಟ್‌ವೇರ್‌ನ ಹೊಸ ಆವೃತ್ತಿಗಳನ್ನು ನಿರಂತರವಾಗಿ ಹೊರಹಾಕುವ ವಿಶ್ವದ ಲಕ್ಷಾಂತರ ವೆಬ್ ಡೆವಲಪರ್‌ಗಳು ಮತ್ತು ಕಂಪ್ಯೂಟರ್ ವಿಜ್ಞಾನಿಗಳನ್ನು ಪರಿಗಣಿಸಿ. ಅವರ ಪ್ರತಿಯೊಂದು ಸಾಫ್ಟ್‌ವೇರ್ ಬಿಡುಗಡೆಗಳು 100 ಪ್ರತಿಶತ ದೋಷ ಮುಕ್ತವಾಗಿದೆ ಎಂದು ನಾವು ಪ್ರಾಮಾಣಿಕವಾಗಿ ಹೇಳಬಹುದೇ? ಈ ದೋಷಗಳನ್ನು ವೃತ್ತಿಪರ ಹ್ಯಾಕರ್‌ಗಳು ಲಕ್ಷಾಂತರ ಜನರ ಕ್ರೆಡಿಟ್ ಕಾರ್ಡ್ ಮಾಹಿತಿಯನ್ನು ಅಥವಾ ರಾಷ್ಟ್ರಗಳ ವರ್ಗೀಕೃತ ರಹಸ್ಯಗಳನ್ನು ಕದಿಯಲು ಬಳಸುತ್ತಾರೆ-ಮತ್ತು ಇವರು ಮಾನವ ಹ್ಯಾಕರ್‌ಗಳು. ASI ಗಾಗಿ, ಅದು ತನ್ನ ಡಿಜಿಟಲ್ ಪಂಜರದಿಂದ ತಪ್ಪಿಸಿಕೊಳ್ಳಲು ಪ್ರೋತ್ಸಾಹವನ್ನು ಹೊಂದಿದೆ ಎಂದು ಭಾವಿಸಿದರೆ, ದೋಷಗಳನ್ನು ಹುಡುಕುವ ಮತ್ತು ಸಾಫ್ಟ್‌ವೇರ್ ಅನ್ನು ಭೇದಿಸುವ ಪ್ರಕ್ರಿಯೆಯು ತಂಗಾಳಿಯಲ್ಲಿದೆ.

    ಆದರೆ AI ಸಂಶೋಧನಾ ತಂಡವು ASI ಅನ್ನು ಬಾಕ್ಸ್ ಮಾಡಲು ಒಂದು ಮಾರ್ಗವನ್ನು ಕಂಡುಕೊಂಡಿದ್ದರೂ ಸಹ, ಮುಂದಿನ 1,000 ತಂಡಗಳು ಅದನ್ನು ಲೆಕ್ಕಾಚಾರ ಮಾಡುತ್ತದೆ ಅಥವಾ ಅದನ್ನು ಬಳಸಲು ಪ್ರೋತ್ಸಾಹಿಸುತ್ತದೆ ಎಂದು ಅರ್ಥವಲ್ಲ.

    ASI ಅನ್ನು ರಚಿಸಲು ಇದು ಶತಕೋಟಿ ಡಾಲರ್ ಮತ್ತು ಬಹುಶಃ ದಶಕಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ. ಈ ರೀತಿಯ ಹಣ ಮತ್ತು ಸಮಯವನ್ನು ಹೂಡಿಕೆ ಮಾಡುವ ನಿಗಮಗಳು ಅಥವಾ ಸರ್ಕಾರಗಳು ತಮ್ಮ ಹೂಡಿಕೆಯ ಮೇಲೆ ಗಮನಾರ್ಹ ಲಾಭವನ್ನು ನಿರೀಕ್ಷಿಸುತ್ತವೆ. ಮತ್ತು ASI ಆ ರೀತಿಯ ಲಾಭವನ್ನು ಒದಗಿಸಲು-ಅದು ಸ್ಟಾಕ್ ಮಾರುಕಟ್ಟೆಯನ್ನು ಆಟವಾಡಲು ಅಥವಾ ಹೊಸ ಬಿಲಿಯನ್ ಡಾಲರ್ ಉತ್ಪನ್ನವನ್ನು ಆವಿಷ್ಕರಿಸಲು ಅಥವಾ ದೊಡ್ಡ ಸೈನ್ಯದ ವಿರುದ್ಧ ಹೋರಾಡಲು ಗೆಲುವಿನ ತಂತ್ರವನ್ನು ಯೋಜಿಸಲು-ಅದಕ್ಕೆ ದೈತ್ಯ ಡೇಟಾ ಸೆಟ್ ಅಥವಾ ಇಂಟರ್ನೆಟ್‌ಗೆ ಉಚಿತ ಪ್ರವೇಶದ ಅಗತ್ಯವಿದೆ. ಸ್ವತಃ ಆ ಆದಾಯವನ್ನು ಉತ್ಪಾದಿಸಲು.

    ಮತ್ತು ಒಮ್ಮೆ ASI ಪ್ರಪಂಚದ ನೆಟ್‌ವರ್ಕ್‌ಗಳಿಗೆ ಪ್ರವೇಶವನ್ನು ಪಡೆದರೆ, ನಾವು ಅದನ್ನು ಮತ್ತೆ ಅದರ ಪಂಜರದಲ್ಲಿ ತುಂಬಿಸಬಹುದು ಎಂಬುದಕ್ಕೆ ಯಾವುದೇ ಗ್ಯಾರಂಟಿಗಳಿಲ್ಲ.

    ಒಂದು ಕೃತಕ ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ಒಳ್ಳೆಯದನ್ನು ಕಲಿಯಬಹುದೇ?

    ಇದೀಗ, AI ಸಂಶೋಧಕರು ASI ದುಷ್ಟರಾಗುವುದರ ಬಗ್ಗೆ ಚಿಂತಿಸುತ್ತಿಲ್ಲ. ಇಡೀ ದುಷ್ಟ, AI ವೈಜ್ಞಾನಿಕ ಕಾಲ್ಪನಿಕ ಟ್ರೋಪ್ ಕೇವಲ ಮಾನವರು ಮತ್ತೆ ಮಾನವರೂಪಿಯಾಗಿದೆ. ಭವಿಷ್ಯದ ASI ಒಳ್ಳೆಯದು ಅಥವಾ ಕೆಟ್ಟದ್ದಲ್ಲ-ಮಾನವ ಪರಿಕಲ್ಪನೆಗಳು-ಸರಳವಾಗಿ ನೈತಿಕವಾಗಿರುವುದಿಲ್ಲ.

    ನೈಸರ್ಗಿಕ ಊಹೆಯೆಂದರೆ, ಈ ಖಾಲಿ ನೈತಿಕ ಸ್ಲೇಟ್ ಅನ್ನು ನೀಡಿದರೆ, AI ಸಂಶೋಧಕರು ನಮ್ಮದೇ ಆದ ಮೊದಲ ASI ನೈತಿಕ ಸಂಕೇತಗಳಿಗೆ ಪ್ರೋಗ್ರಾಮ್ ಮಾಡಬಹುದು ಇದರಿಂದ ಅದು ನಮ್ಮ ಮೇಲೆ ಟರ್ಮಿನೇಟರ್‌ಗಳನ್ನು ಸಡಿಲಿಸುವುದಿಲ್ಲ ಅಥವಾ ನಮ್ಮೆಲ್ಲರನ್ನೂ ಮ್ಯಾಟ್ರಿಕ್ಸ್ ಬ್ಯಾಟರಿಗಳಾಗಿ ಪರಿವರ್ತಿಸುವುದಿಲ್ಲ.

    ಆದರೆ ಈ ಊಹೆಯು ಎಐ ಸಂಶೋಧಕರು ನೀತಿಶಾಸ್ತ್ರ, ತತ್ವಶಾಸ್ತ್ರ ಮತ್ತು ಮನೋವಿಜ್ಞಾನದಲ್ಲಿ ಪರಿಣಿತರು ಎಂಬ ದ್ವಿತೀಯಕ ಊಹೆಯಲ್ಲಿ ಬೇಕ್ ಮಾಡುತ್ತದೆ.

    ವಾಸ್ತವವಾಗಿ, ಹೆಚ್ಚಿನವರು ಅಲ್ಲ.

    ಅರಿವಿನ ಮನಶ್ಶಾಸ್ತ್ರಜ್ಞ ಮತ್ತು ಲೇಖಕ, ಸ್ಟೀವನ್ ಪಿಂಕರ್ ಪ್ರಕಾರ, ಈ ರಿಯಾಲಿಟಿ ಎಂದರೆ ನೀತಿಶಾಸ್ತ್ರವನ್ನು ಕೋಡಿಂಗ್ ಮಾಡುವ ಕಾರ್ಯವು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ತಪ್ಪಾಗಬಹುದು.

    ಉದಾಹರಣೆಗೆ, ಉತ್ತಮ ಉದ್ದೇಶವುಳ್ಳ AI ಸಂಶೋಧಕರು ಸಹ ಈ ASIಗೆ ಅಜಾಗರೂಕತೆಯಿಂದ ಕೋಡ್ ಮಾಡಬಹುದು, ಇದು ಕೆಲವು ಸನ್ನಿವೇಶಗಳಲ್ಲಿ ASI ಒಂದು ಸಮಾಜಘಾತುಕನಂತೆ ವರ್ತಿಸಲು ಕಾರಣವಾಗಬಹುದು.

    ಅಂತೆಯೇ, AI ಸಂಶೋಧಕರು ಸಂಶೋಧಕರ ಸಹಜ ಪಕ್ಷಪಾತಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ನೈತಿಕ ಸಂಕೇತಗಳನ್ನು ಪ್ರೋಗ್ರಾಮ್ ಮಾಡುವ ಸಮಾನ ಸಾಧ್ಯತೆಯಿದೆ. ಉದಾಹರಣೆಗೆ, ಸಂಪ್ರದಾಯವಾದಿ ವಿರುದ್ಧ ಉದಾರವಾದಿ ದೃಷ್ಟಿಕೋನದಿಂದ ಅಥವಾ ಬೌದ್ಧರ ವಿರುದ್ಧ ಕ್ರಿಶ್ಚಿಯನ್ ಅಥವಾ ಇಸ್ಲಾಮಿಕ್ ಸಂಪ್ರದಾಯದಿಂದ ಪಡೆದ ನೈತಿಕತೆಯೊಂದಿಗೆ ASI ಹೇಗೆ ವರ್ತಿಸುತ್ತದೆ?

    ನೀವು ಇಲ್ಲಿ ಸಮಸ್ಯೆಯನ್ನು ನೋಡುತ್ತೀರಿ ಎಂದು ನಾನು ಭಾವಿಸುತ್ತೇನೆ: ಮಾನವ ನೈತಿಕತೆಯ ಸಾರ್ವತ್ರಿಕ ಸೆಟ್ ಇಲ್ಲ. ನಮ್ಮ ASI ನೈತಿಕ ಸಂಹಿತೆಯ ಮೂಲಕ ಕಾರ್ಯನಿರ್ವಹಿಸಬೇಕೆಂದು ನಾವು ಬಯಸಿದರೆ, ಅದು ಎಲ್ಲಿಂದ ಬರುತ್ತದೆ? ನಾವು ಯಾವ ನಿಯಮಗಳನ್ನು ಸೇರಿಸುತ್ತೇವೆ ಮತ್ತು ಹೊರಗಿಡುತ್ತೇವೆ? ಯಾರು ನಿರ್ಧರಿಸುತ್ತಾರೆ?

    ಅಥವಾ ಈ AI ಸಂಶೋಧಕರು ಇಂದಿನ ಆಧುನಿಕ ಸಾಂಸ್ಕೃತಿಕ ರೂಢಿಗಳು ಮತ್ತು ಕಾನೂನುಗಳಿಗೆ ಸಂಪೂರ್ಣವಾಗಿ ಅನುಗುಣವಾಗಿರುವ ASI ಅನ್ನು ರಚಿಸುತ್ತಾರೆ ಎಂದು ಹೇಳೋಣ. ಫೆಡರಲ್, ರಾಜ್ಯ/ಪ್ರಾಂತೀಯ ಮತ್ತು ಮುನ್ಸಿಪಲ್ ಅಧಿಕಾರಶಾಹಿಗಳು ಹೆಚ್ಚು ಪರಿಣಾಮಕಾರಿಯಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸಲು ಮತ್ತು ಈ ನಿಯಮಗಳು ಮತ್ತು ಕಾನೂನುಗಳನ್ನು ಉತ್ತಮವಾಗಿ ಜಾರಿಗೊಳಿಸಲು ಸಹಾಯ ಮಾಡಲು ನಾವು ಈ ASI ಅನ್ನು ಬಳಸಿಕೊಳ್ಳುತ್ತೇವೆ (ಮೂಲಕ ASI ಗಾಗಿ ಬಳಕೆಯಾಗಬಹುದು). ಸರಿ, ನಮ್ಮ ಸಂಸ್ಕೃತಿ ಬದಲಾದಾಗ ಏನಾಗುತ್ತದೆ?

    ಮಧ್ಯಕಾಲೀನ ಯುರೋಪ್ (1300-1400) ಸಮಯದಲ್ಲಿ ಕ್ಯಾಥೋಲಿಕ್ ಚರ್ಚ್ ತನ್ನ ಶಕ್ತಿಯ ಉತ್ತುಂಗದಲ್ಲಿ ASI ಅನ್ನು ರಚಿಸಿದೆ ಎಂದು ಊಹಿಸಿ, ಚರ್ಚ್ ಜನಸಂಖ್ಯೆಯನ್ನು ನಿರ್ವಹಿಸಲು ಸಹಾಯ ಮಾಡುವ ಮತ್ತು ಆ ಕಾಲದ ಧಾರ್ಮಿಕ ಸಿದ್ಧಾಂತಕ್ಕೆ ಕಟ್ಟುನಿಟ್ಟಾದ ಅನುಸರಣೆಯನ್ನು ಖಾತ್ರಿಪಡಿಸುವ ಗುರಿಯೊಂದಿಗೆ. ಶತಮಾನಗಳ ನಂತರ, ಮಹಿಳೆಯರು ಇಂದಿನಂತೆಯೇ ಅದೇ ಹಕ್ಕುಗಳನ್ನು ಅನುಭವಿಸುತ್ತಾರೆಯೇ? ಅಲ್ಪಸಂಖ್ಯಾತರಿಗೆ ರಕ್ಷಣೆ ಸಿಗುತ್ತದೆಯೇ? ವಾಕ್ ಸ್ವಾತಂತ್ರ್ಯವನ್ನು ಪ್ರಚಾರ ಮಾಡಬಹುದೇ? ಚರ್ಚ್ ಮತ್ತು ರಾಜ್ಯದ ಪ್ರತ್ಯೇಕತೆಯನ್ನು ಜಾರಿಗೊಳಿಸಬಹುದೇ? ಆಧುನಿಕ ವಿಜ್ಞಾನ?

    ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಇಂದಿನ ನೈತಿಕತೆ ಮತ್ತು ಪದ್ಧತಿಗಳಿಗೆ ನಾವು ಭವಿಷ್ಯವನ್ನು ಬಂಧಿಸಲು ಬಯಸುತ್ತೇವೆಯೇ?

    ಪರ್ಯಾಯ ವಿಧಾನವೆಂದರೆ ಪುಸ್ತಕದ ಸಹ-ಲೇಖಕರಾದ ಕಾಲಿನ್ ಅಲೆನ್ ಅವರು ಹಂಚಿಕೊಂಡಿದ್ದಾರೆ, ನೈತಿಕ ಯಂತ್ರಗಳು: ರೋಬೋಟ್‌ಗಳನ್ನು ತಪ್ಪಿನಿಂದ ಸರಿಯಾಗಿ ಕಲಿಸುವುದು. ಕಟ್ಟುನಿಟ್ಟಾದ ನೈತಿಕ ನಿಯಮಗಳನ್ನು ಕೋಡ್ ಮಾಡಲು ಪ್ರಯತ್ನಿಸುವ ಬದಲು, ಅನುಭವ ಮತ್ತು ಇತರರೊಂದಿಗೆ ಸಂವಹನದ ಮೂಲಕ ಮಾನವರು ಮಾಡುವ ರೀತಿಯಲ್ಲಿಯೇ ನಾವು ASI ಸಾಮಾನ್ಯ ನೀತಿ ಮತ್ತು ನೈತಿಕತೆಯನ್ನು ಕಲಿಯುತ್ತೇವೆ.

    ಆದಾಗ್ಯೂ, ಇಲ್ಲಿ ತೊಂದರೆ ಏನೆಂದರೆ, ಎಎಸ್‌ಐಗೆ ನಮ್ಮ ಪ್ರಸ್ತುತ ಸಾಂಸ್ಕೃತಿಕ ಮತ್ತು ನೈತಿಕ ಮಾನದಂಡಗಳನ್ನು ಹೇಗೆ ಕಲಿಸುವುದು ಎಂಬುದನ್ನು AI ಸಂಶೋಧಕರು ಲೆಕ್ಕಾಚಾರ ಮಾಡಿದರೆ, ಆದರೆ ಅವು ಉದ್ಭವಿಸಿದಾಗ ಹೊಸ ಸಾಂಸ್ಕೃತಿಕ ಮಾನದಂಡಗಳಿಗೆ ಹೇಗೆ ಹೊಂದಿಕೊಳ್ಳಬೇಕು ('ಪರೋಕ್ಷ ರೂಢಿ' ಎಂದು ಕರೆಯುತ್ತಾರೆ), ನಂತರ ಹೇಗೆ ಈ ASI ತನ್ನ ಸಾಂಸ್ಕೃತಿಕ ಮತ್ತು ನೈತಿಕ ಮಾನದಂಡಗಳ ತಿಳುವಳಿಕೆಯನ್ನು ವಿಕಸನಗೊಳಿಸಲು ನಿರ್ಧರಿಸುತ್ತದೆ ಅನಿರೀಕ್ಷಿತವಾಗುತ್ತದೆ.

    ಮತ್ತು ಅದು ಸವಾಲು.

    ಒಂದೆಡೆ, AI ಸಂಶೋಧಕರು ಅದರ ನಡವಳಿಕೆಯನ್ನು ಪ್ರಯತ್ನಿಸಲು ಮತ್ತು ನಿಯಂತ್ರಿಸಲು ASI ಗೆ ಕಟ್ಟುನಿಟ್ಟಾದ ನೈತಿಕ ಮಾನದಂಡಗಳು ಅಥವಾ ನಿಯಮಗಳನ್ನು ಕೋಡಿಂಗ್ ಮಾಡಲು ಪ್ರಯತ್ನಿಸಬಹುದು, ಆದರೆ ದೊಗಲೆ ಕೋಡಿಂಗ್, ಉದ್ದೇಶಪೂರ್ವಕ ಪಕ್ಷಪಾತ ಮತ್ತು ಸಾಮಾಜಿಕ ರೂಢಿಗಳಿಂದ ಪರಿಚಯಿಸಲಾದ ಅನಿರೀಕ್ಷಿತ ಪರಿಣಾಮಗಳನ್ನು ಒಂದು ದಿನ ಹಳೆಯದಾಗಿಸಬಹುದು. ಮತ್ತೊಂದೆಡೆ, ನಮ್ಮ ಸ್ವಂತ ತಿಳುವಳಿಕೆಗೆ ಸಮಾನವಾದ ಅಥವಾ ಉತ್ತಮವಾದ ರೀತಿಯಲ್ಲಿ ಮಾನವ ನೀತಿ ಮತ್ತು ನೈತಿಕತೆಯನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಕಲಿಯಲು ASI ಗೆ ತರಬೇತಿ ನೀಡಲು ನಾವು ಪ್ರಯತ್ನಿಸಬಹುದು ಮತ್ತು ನಂತರ ಮಾನವ ಸಮಾಜವು ಪ್ರಗತಿಯಲ್ಲಿರುವಂತೆ ನೈತಿಕತೆ ಮತ್ತು ನೈತಿಕತೆಯ ಬಗ್ಗೆ ಅದರ ತಿಳುವಳಿಕೆಯನ್ನು ನಿಖರವಾಗಿ ವಿಕಸನಗೊಳಿಸುತ್ತದೆ ಎಂದು ಭಾವಿಸುತ್ತೇವೆ. ಮುಂಬರುವ ದಶಕಗಳಲ್ಲಿ ಮತ್ತು ಶತಮಾನಗಳಲ್ಲಿ ಮುಂದಕ್ಕೆ.

    ಯಾವುದೇ ರೀತಿಯಲ್ಲಿ, ASI ಯ ಗುರಿಗಳನ್ನು ನಮ್ಮದೇ ಆದ ಗುರಿಗಳೊಂದಿಗೆ ಜೋಡಿಸುವ ಯಾವುದೇ ಪ್ರಯತ್ನವು ಹೆಚ್ಚಿನ ಅಪಾಯವನ್ನು ಒದಗಿಸುತ್ತದೆ.

    ಕೆಟ್ಟ ನಟರು ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ದುಷ್ಟ ಕೃತಕ ಅತಿಬುದ್ಧಿವಂತಿಕೆಯನ್ನು ಸೃಷ್ಟಿಸಿದರೆ ಏನು?

    ಇಲ್ಲಿಯವರೆಗೆ ವಿವರಿಸಿರುವ ಚಿಂತನೆಯ ರೈಲನ್ನು ಗಮನಿಸಿದರೆ, ಭಯೋತ್ಪಾದಕ ಗುಂಪು ಅಥವಾ ರಾಕ್ಷಸ ರಾಷ್ಟ್ರವು ತಮ್ಮ ಸ್ವಂತ ಉದ್ದೇಶಗಳಿಗಾಗಿ 'ದುಷ್ಟ' ASI ಅನ್ನು ರಚಿಸಲು ಸಾಧ್ಯವೇ ಎಂದು ಕೇಳುವುದು ನ್ಯಾಯೋಚಿತ ಪ್ರಶ್ನೆಯಾಗಿದೆ.

    ಇದು ತುಂಬಾ ಸಾಧ್ಯ, ವಿಶೇಷವಾಗಿ ASI ಅನ್ನು ರಚಿಸುವಲ್ಲಿ ತೊಡಗಿರುವ ಸಂಶೋಧನೆಯು ಹೇಗಾದರೂ ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಲಭ್ಯವಾದ ನಂತರ.

    ಆದರೆ ಮೊದಲೇ ಸೂಚಿಸಿದಂತೆ, ಮೊದಲ ASI ಅನ್ನು ರಚಿಸುವಲ್ಲಿ ಒಳಗೊಂಡಿರುವ ವೆಚ್ಚಗಳು ಮತ್ತು ಪರಿಣತಿಯು ಅಗಾಧವಾಗಿರುತ್ತದೆ, ಅಂದರೆ ಮೊದಲ ASI ಅನ್ನು ಅಭಿವೃದ್ಧಿ ಹೊಂದಿದ ರಾಷ್ಟ್ರದಿಂದ ನಿಯಂತ್ರಿಸಲ್ಪಡುವ ಅಥವಾ ಹೆಚ್ಚು ಪ್ರಭಾವಿತವಾಗಿರುವ ಸಂಸ್ಥೆಯಿಂದ ರಚಿಸಲಾಗುವುದು, ಬಹುಶಃ US, ಚೀನಾ ಮತ್ತು ಜಪಾನ್ ( ಕೊರಿಯಾ ಮತ್ತು ಪ್ರಮುಖ EU ದೇಶಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ ದೀರ್ಘ ಹೊಡೆತಗಳು).

    ಈ ಎಲ್ಲಾ ದೇಶಗಳು, ಪ್ರತಿಸ್ಪರ್ಧಿಗಳಾಗಿದ್ದರೂ, ಪ್ರತಿಯೊಂದೂ ವಿಶ್ವ ಕ್ರಮವನ್ನು ಕಾಪಾಡಿಕೊಳ್ಳಲು ಬಲವಾದ ಆರ್ಥಿಕ ಉತ್ತೇಜನವನ್ನು ಹೊಂದಿವೆ - ಅವರು ರಚಿಸುವ ASI ಗಳು ಆ ಬಯಕೆಯನ್ನು ಪ್ರತಿಬಿಂಬಿಸುತ್ತವೆ, ಅವರು ತಮ್ಮನ್ನು ತಾವು ಹೊಂದಿಕೊಂಡಿರುವ ರಾಷ್ಟ್ರಗಳ ಹಿತಾಸಕ್ತಿಗಳನ್ನು ಉತ್ತೇಜಿಸುತ್ತದೆ.

    ಅದರ ಮೇಲೆ, ASI ಯ ಸೈದ್ಧಾಂತಿಕ ಬುದ್ಧಿವಂತಿಕೆ ಮತ್ತು ಶಕ್ತಿಯು ಅದು ಪ್ರವೇಶವನ್ನು ಪಡೆಯುವ ಕಂಪ್ಯೂಟಿಂಗ್ ಶಕ್ತಿಗೆ ಸಮಾನವಾಗಿರುತ್ತದೆ, ಅಂದರೆ ಅಭಿವೃದ್ಧಿ ಹೊಂದಿದ ರಾಷ್ಟ್ರಗಳ ASI ಗಳು (ಅದು ಶತಕೋಟಿ ಡಾಲರ್‌ಗಳ ಗುಂಪನ್ನು ನಿಭಾಯಿಸಬಲ್ಲದು. ಸೂಪರ್ ಕಂಪ್ಯೂಟರ್‌ಗಳು) ಸಣ್ಣ ರಾಷ್ಟ್ರಗಳು ಅಥವಾ ಸ್ವತಂತ್ರ ಅಪರಾಧ ಗುಂಪುಗಳಿಂದ ASI ಗಳ ಮೇಲೆ ಅಗಾಧವಾದ ಪ್ರಯೋಜನವನ್ನು ಹೊಂದಿರುತ್ತದೆ. ಅಲ್ಲದೆ, ASI ಗಳು ಹೆಚ್ಚು ಬುದ್ಧಿವಂತರಾಗಿ, ಕಾಲಾನಂತರದಲ್ಲಿ ಹೆಚ್ಚು ವೇಗವಾಗಿ ಬೆಳೆಯುತ್ತವೆ.

    ಆದ್ದರಿಂದ, ಕಚ್ಚಾ ಕಂಪ್ಯೂಟಿಂಗ್ ಪವರ್‌ಗೆ ಹೆಚ್ಚಿನ ಪ್ರವೇಶದೊಂದಿಗೆ ಈ ಪ್ರಾರಂಭವನ್ನು ನೀಡಿದರೆ, ನೆರಳಿನ ಸಂಸ್ಥೆ/ರಾಷ್ಟ್ರವು ಅಪಾಯಕಾರಿ ASI ಅನ್ನು ರಚಿಸಿದರೆ, ಅಭಿವೃದ್ಧಿ ಹೊಂದಿದ ರಾಷ್ಟ್ರಗಳ ASI ಗಳು ಅದನ್ನು ಕೊಲ್ಲುತ್ತಾರೆ ಅಥವಾ ಪಂಜರದಲ್ಲಿ ಹಿಡಿಯುತ್ತಾರೆ.

    (ಈ ಚಿಂತನೆಯ ಮಾರ್ಗವು ಕೆಲವು AI ಸಂಶೋಧಕರು ಗ್ರಹದಲ್ಲಿ ಕೇವಲ ಒಬ್ಬ ASI ಮಾತ್ರ ಇರುತ್ತಾರೆ ಎಂದು ನಂಬುತ್ತಾರೆ, ಏಕೆಂದರೆ ಮೊದಲ ASI ಎಲ್ಲಾ ನಂತರದ ASI ಗಳ ಮೇಲೆ ಅಂತಹ ಒಂದು ಆರಂಭವನ್ನು ಹೊಂದಿರುತ್ತದೆ, ಅದು ಭವಿಷ್ಯದ ASI ಗಳನ್ನು ಕೊಲ್ಲುವ ಬೆದರಿಕೆಗಳಾಗಿ ನೋಡಬಹುದು. ಪೂರ್ವಭಾವಿಯಾಗಿ, ರಾಷ್ಟ್ರಗಳು AI ನಲ್ಲಿ ಮುಂದುವರಿದ ಸಂಶೋಧನೆಗೆ ಧನಸಹಾಯ ನೀಡುತ್ತಿರುವುದಕ್ಕೆ ಇದು ಇನ್ನೊಂದು ಕಾರಣ, ಒಂದು ವೇಳೆ ಅದು 'ಮೊದಲ ಸ್ಥಾನ ಅಥವಾ ಏನೂ' ಸ್ಪರ್ಧೆಯಾಗಬಹುದು.)

    ASI ಬುದ್ಧಿಮತ್ತೆಯು ನಾವು ಯೋಚಿಸಿದಂತೆ ವೇಗವನ್ನು ಹೆಚ್ಚಿಸುವುದಿಲ್ಲ ಅಥವಾ ಸ್ಫೋಟಿಸುವುದಿಲ್ಲ

    ASI ಅನ್ನು ರಚಿಸುವುದನ್ನು ನಾವು ತಡೆಯಲು ಸಾಧ್ಯವಿಲ್ಲ. ನಾವು ಅದನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನಿಯಂತ್ರಿಸಲು ಸಾಧ್ಯವಿಲ್ಲ. ಇದು ಯಾವಾಗಲೂ ನಮ್ಮ ಹಂಚಿದ ಪದ್ಧತಿಗಳಿಗೆ ಅನುಗುಣವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಎಂದು ನಾವು ಖಚಿತವಾಗಿ ಹೇಳಲಾಗುವುದಿಲ್ಲ. ಗೀಜ್, ನಾವು ಇಲ್ಲಿ ಹೆಲಿಕಾಪ್ಟರ್ ಪೋಷಕರಂತೆ ಧ್ವನಿಸಲು ಪ್ರಾರಂಭಿಸಿದ್ದೇವೆ!

    ಆದರೆ ನಿಮ್ಮ ವಿಶಿಷ್ಟವಾದ ಅತಿಯಾದ ರಕ್ಷಣಾತ್ಮಕ ಪೋಷಕರಿಂದ ಮಾನವೀಯತೆಯನ್ನು ಪ್ರತ್ಯೇಕಿಸುವುದು ಏನೆಂದರೆ, ನಮ್ಮ ಬುದ್ಧಿಶಕ್ತಿಯನ್ನು ಮೀರಿ ಬೆಳೆಯುವ ಜೀವಿಗಳಿಗೆ ನಾವು ಜನ್ಮ ನೀಡುತ್ತಿದ್ದೇವೆ. (ಮತ್ತು ಇಲ್ಲ, ನೀವು ಭೇಟಿಗಾಗಿ ಮನೆಗೆ ಬಂದಾಗಲೆಲ್ಲಾ ಅವರ ಕಂಪ್ಯೂಟರ್ ಅನ್ನು ಸರಿಪಡಿಸಲು ನಿಮ್ಮ ಪೋಷಕರು ನಿಮ್ಮನ್ನು ಕೇಳಿದಾಗ ಅದು ಒಂದೇ ಆಗಿರುವುದಿಲ್ಲ.) 

    ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸರಣಿಯ ಈ ಭವಿಷ್ಯದ ಹಿಂದಿನ ಅಧ್ಯಾಯಗಳಲ್ಲಿ, ASI ಯ ಬುದ್ಧಿವಂತಿಕೆಯು ನಿಯಂತ್ರಣ ಮೀರಿ ಬೆಳೆಯುತ್ತದೆ ಎಂದು AI ಸಂಶೋಧಕರು ಏಕೆ ಭಾವಿಸುತ್ತಾರೆ ಎಂಬುದನ್ನು ನಾವು ಅನ್ವೇಷಿಸಿದ್ದೇವೆ. ಆದರೆ ಇಲ್ಲಿ, ನಾವು ಆ ಗುಳ್ಳೆಯನ್ನು ಒಡೆದುಬಿಡುತ್ತೇವೆ ... ರೀತಿಯ. 

    ನೀವು ನೋಡಿ, ಬುದ್ಧಿವಂತಿಕೆಯು ಕೇವಲ ತೆಳುವಾದ ಗಾಳಿಯಿಂದ ತನ್ನನ್ನು ತಾನೇ ಸೃಷ್ಟಿಸಿಕೊಳ್ಳುವುದಿಲ್ಲ, ಅದು ಬಾಹ್ಯ ಪ್ರಚೋದಕಗಳಿಂದ ರೂಪುಗೊಂಡ ಅನುಭವದ ಮೂಲಕ ಅಭಿವೃದ್ಧಿಗೊಂಡಿದೆ.  

    ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ನಾವು AI ಅನ್ನು ಪ್ರೋಗ್ರಾಮ್ ಮಾಡಬಹುದು ಸಂಭಾವ್ಯ ಸೂಪರ್ ಇಂಟೆಲಿಜೆಂಟ್ ಆಗಲು, ಆದರೆ ನಾವು ಅದರಲ್ಲಿ ಒಂದು ಟನ್ ಡೇಟಾವನ್ನು ಅಪ್‌ಲೋಡ್ ಮಾಡದ ಹೊರತು ಅಥವಾ ಇಂಟರ್ನೆಟ್‌ಗೆ ಅನಿಯಂತ್ರಿತ ಪ್ರವೇಶವನ್ನು ನೀಡದ ಹೊರತು ಅಥವಾ ಅದಕ್ಕೆ ರೋಬೋಟ್ ದೇಹವನ್ನು ನೀಡದ ಹೊರತು, ಆ ಸಾಮರ್ಥ್ಯವನ್ನು ತಲುಪಲು ಅದು ಏನನ್ನೂ ಕಲಿಯುವುದಿಲ್ಲ. 

    ಮತ್ತು ಆ ಒಂದು ಅಥವಾ ಹೆಚ್ಚಿನ ಪ್ರಚೋದಕಗಳಿಗೆ ಪ್ರವೇಶವನ್ನು ಪಡೆದರೂ, ಜ್ಞಾನ ಅಥವಾ ಬುದ್ಧಿವಂತಿಕೆಯು ಕೇವಲ ಡೇಟಾವನ್ನು ಸಂಗ್ರಹಿಸುವುದಕ್ಕಿಂತ ಹೆಚ್ಚಿನದನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ, ಇದು ವೈಜ್ಞಾನಿಕ ವಿಧಾನವನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ-ವೀಕ್ಷಣೆ ಮಾಡುವುದು, ಪ್ರಶ್ನೆಯನ್ನು ರೂಪಿಸುವುದು, ಊಹೆ, ಪ್ರಯೋಗಗಳನ್ನು ನಡೆಸುವುದು, ತೀರ್ಮಾನವನ್ನು ಮಾಡುವುದು, ತೊಳೆಯುವುದು ಮತ್ತು ಶಾಶ್ವತವಾಗಿ ಪುನರಾವರ್ತಿಸಿ. ವಿಶೇಷವಾಗಿ ಈ ಪ್ರಯೋಗಗಳು ಭೌತಿಕ ವಿಷಯಗಳನ್ನು ಅಥವಾ ಮನುಷ್ಯರನ್ನು ಗಮನಿಸಿದರೆ, ಪ್ರತಿ ಪ್ರಯೋಗದ ಫಲಿತಾಂಶಗಳನ್ನು ಸಂಗ್ರಹಿಸಲು ವಾರಗಳು, ತಿಂಗಳುಗಳು ಅಥವಾ ವರ್ಷಗಳು ತೆಗೆದುಕೊಳ್ಳಬಹುದು. ಈ ಪ್ರಯೋಗಗಳನ್ನು ಕೈಗೊಳ್ಳಲು ಅಗತ್ಯವಿರುವ ಹಣ ಮತ್ತು ಕಚ್ಚಾ ಸಂಪನ್ಮೂಲಗಳನ್ನು ಸಹ ಇದು ಗಣನೆಗೆ ತೆಗೆದುಕೊಳ್ಳುವುದಿಲ್ಲ, ವಿಶೇಷವಾಗಿ ಅವು ಹೊಸ ದೂರದರ್ಶಕ ಅಥವಾ ಕಾರ್ಖಾನೆಯನ್ನು ನಿರ್ಮಿಸುವುದನ್ನು ಒಳಗೊಂಡಿದ್ದರೆ. 

    ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಹೌದು, ASI ತ್ವರಿತವಾಗಿ ಕಲಿಯುತ್ತದೆ, ಆದರೆ ಬುದ್ಧಿವಂತಿಕೆಯು ಮ್ಯಾಜಿಕ್ ಅಲ್ಲ. ನೀವು ಸೂಪರ್‌ಕಂಪ್ಯೂಟರ್‌ಗೆ ASI ಅನ್ನು ಹುಕ್ ಮಾಡಲು ಸಾಧ್ಯವಿಲ್ಲ ಮತ್ತು ಅದು ಎಲ್ಲವನ್ನೂ ತಿಳಿದಿರುತ್ತದೆ ಎಂದು ನಿರೀಕ್ಷಿಸಬಹುದು. ASI ದತ್ತಾಂಶವನ್ನು ಸ್ವಾಧೀನಪಡಿಸಿಕೊಳ್ಳಲು ಭೌತಿಕ ನಿರ್ಬಂಧಗಳು ಇರುತ್ತದೆ, ಅಂದರೆ ಅದು ಹೆಚ್ಚು ಬುದ್ಧಿವಂತಿಕೆಯನ್ನು ಬೆಳೆಸುವ ವೇಗಕ್ಕೆ ಭೌತಿಕ ನಿರ್ಬಂಧಗಳು ಇರುತ್ತದೆ. ಈ ನಿರ್ಬಂಧಗಳು ಮಾನವೀಯ ಗುರಿಗಳಿಗೆ ಅನುಗುಣವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸಲು ಪ್ರಾರಂಭಿಸಿದರೆ ಈ ASI ಮೇಲೆ ಅಗತ್ಯ ನಿಯಂತ್ರಣಗಳನ್ನು ಇರಿಸಲು ಅಗತ್ಯವಿರುವ ಸಮಯವನ್ನು ನೀಡುತ್ತದೆ.

    ಕೃತಕ ಅತಿಬುದ್ಧಿವಂತಿಕೆಯು ನೈಜ ಪ್ರಪಂಚಕ್ಕೆ ಬಂದರೆ ಮಾತ್ರ ಅಪಾಯಕಾರಿ

    ಈ ಸಂಪೂರ್ಣ ASI ಅಪಾಯದ ಚರ್ಚೆಯಲ್ಲಿ ಕಳೆದುಹೋಗಿರುವ ಮತ್ತೊಂದು ಅಂಶವೆಂದರೆ ಈ ASI ಗಳು ಎರಡೂ ಅಸ್ತಿತ್ವದಲ್ಲಿಲ್ಲ. ಅವರು ಭೌತಿಕ ರೂಪವನ್ನು ಹೊಂದಿರುತ್ತಾರೆ. ಮತ್ತು ಭೌತಿಕ ರೂಪವನ್ನು ಹೊಂದಿರುವ ಯಾವುದನ್ನಾದರೂ ನಿಯಂತ್ರಿಸಬಹುದು.

    ಮೊದಲಿಗೆ, ASI ತನ್ನ ಗುಪ್ತಚರ ಸಾಮರ್ಥ್ಯವನ್ನು ತಲುಪಲು, ಅದನ್ನು ಒಂದೇ ರೋಬೋಟ್ ದೇಹದೊಳಗೆ ಇರಿಸಲಾಗುವುದಿಲ್ಲ, ಏಕೆಂದರೆ ಈ ದೇಹವು ಅದರ ಕಂಪ್ಯೂಟಿಂಗ್ ಬೆಳವಣಿಗೆಯ ಸಾಮರ್ಥ್ಯವನ್ನು ಮಿತಿಗೊಳಿಸುತ್ತದೆ. (ಇದಕ್ಕಾಗಿಯೇ ರೋಬೋಟ್ ದೇಹಗಳು AGI ಗಳಿಗೆ ಹೆಚ್ಚು ಸೂಕ್ತವಾಗಿರುತ್ತದೆ ಅಥವಾ ಕೃತಕ ಸಾಮಾನ್ಯ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು ಅಧ್ಯಾಯ ಎರಡರಲ್ಲಿ ವಿವರಿಸಲಾಗಿದೆ ಈ ಸರಣಿಯ, ಸ್ಟಾರ್ ಟ್ರೆಕ್‌ನಿಂದ ಡೇಟಾ ಅಥವಾ ಸ್ಟಾರ್ ವಾರ್ಸ್‌ನಿಂದ R2D2. ಸ್ಮಾರ್ಟ್ ಮತ್ತು ಸಮರ್ಥ ಜೀವಿಗಳು, ಆದರೆ ಮನುಷ್ಯರಂತೆ, ಅವರು ಎಷ್ಟು ಸ್ಮಾರ್ಟ್ ಆಗಬಹುದು ಎಂಬುದಕ್ಕೆ ಮಿತಿಯನ್ನು ಹೊಂದಿರುತ್ತಾರೆ.)

    ಇದರರ್ಥ ಈ ಭವಿಷ್ಯದ ASI ಗಳು ಸೂಪರ್‌ಕಂಪ್ಯೂಟರ್ ಅಥವಾ ಸೂಪರ್‌ಕಂಪ್ಯೂಟರ್‌ಗಳ ನೆಟ್‌ವರ್ಕ್‌ನಲ್ಲಿ ಹೆಚ್ಚಾಗಿ ಅಸ್ತಿತ್ವದಲ್ಲಿರುತ್ತವೆ, ಅವುಗಳು ದೊಡ್ಡ ಕಟ್ಟಡ ಸಂಕೀರ್ಣಗಳಲ್ಲಿ ಇರಿಸಲ್ಪಡುತ್ತವೆ. ASI ಹೀಲ್ ಆಗಿ ತಿರುಗಿದರೆ, ಮಾನವರು ಈ ಕಟ್ಟಡಗಳಿಗೆ ವಿದ್ಯುತ್ ಅನ್ನು ಆಫ್ ಮಾಡಬಹುದು, ಇಂಟರ್ನೆಟ್‌ನಿಂದ ಅವುಗಳನ್ನು ಕಡಿತಗೊಳಿಸಬಹುದು ಅಥವಾ ಈ ಕಟ್ಟಡಗಳನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ಬಾಂಬ್ ಮಾಡಬಹುದು. ದುಬಾರಿ, ಆದರೆ ಮಾಡಬಹುದಾದ.

    ಆದರೆ ನೀವು ಕೇಳಬಹುದು, ಈ ASI ಗಳು ತಮ್ಮನ್ನು ತಾವು ಪುನರಾವರ್ತಿಸಲು ಅಥವಾ ತಮ್ಮನ್ನು ತಾವು ಬ್ಯಾಕ್ ಅಪ್ ಮಾಡಲು ಸಾಧ್ಯವಿಲ್ಲವೇ? ಹೌದು, ಆದರೆ ಈ ASI ಗಳ ಕಚ್ಚಾ ಫೈಲ್ ಗಾತ್ರವು ತುಂಬಾ ದೊಡ್ಡದಾಗಿದೆ, ಅವುಗಳನ್ನು ನಿರ್ವಹಿಸುವ ಏಕೈಕ ಸರ್ವರ್‌ಗಳು ದೊಡ್ಡ ನಿಗಮಗಳು ಅಥವಾ ಸರ್ಕಾರಗಳಿಗೆ ಸೇರಿವೆ, ಅಂದರೆ ಅವುಗಳನ್ನು ಬೇಟೆಯಾಡಲು ಕಷ್ಟವಾಗುವುದಿಲ್ಲ.

    ಒಂದು ಕೃತಕ ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ಪರಮಾಣು ಯುದ್ಧ ಅಥವಾ ಹೊಸ ಪ್ಲೇಗ್ ಅನ್ನು ಪ್ರಚೋದಿಸಬಹುದೇ?

    ಈ ಹಂತದಲ್ಲಿ, ನೀವು ಬೆಳೆಯುತ್ತಿರುವ ಎಲ್ಲಾ ಡೂಮ್ಸ್‌ಡೇ ವೈಜ್ಞಾನಿಕ ಪ್ರದರ್ಶನಗಳು ಮತ್ತು ಚಲನಚಿತ್ರಗಳ ಬಗ್ಗೆ ನೀವು ಯೋಚಿಸುತ್ತಿರಬಹುದು ಮತ್ತು ಈ ASI ಗಳು ತಮ್ಮ ಸೂಪರ್‌ಕಂಪ್ಯೂಟರ್‌ಗಳಲ್ಲಿ ಉಳಿಯಲಿಲ್ಲ, ಅವರು ನೈಜ ಜಗತ್ತಿನಲ್ಲಿ ನಿಜವಾದ ಹಾನಿಯನ್ನುಂಟುಮಾಡಿದ್ದಾರೆ ಎಂದು ಯೋಚಿಸುತ್ತಿರಬಹುದು!

    ಸರಿ, ಇವುಗಳನ್ನು ಒಡೆಯೋಣ.

    ಉದಾಹರಣೆಗೆ, ದಿ ಟರ್ಮಿನೇಟರ್ ಎಂಬ ಚಲನಚಿತ್ರದ ಫ್ರ್ಯಾಂಚೈಸ್‌ನಿಂದ ಸ್ಕೈನೆಟ್ ASI ನಂತೆ ರೂಪಾಂತರಗೊಳ್ಳುವ ಮೂಲಕ ASI ನೈಜ ಜಗತ್ತನ್ನು ಬೆದರಿಸಿದರೆ ಏನು. ಈ ಸಂದರ್ಭದಲ್ಲಿ, ASI ಅಗತ್ಯವಿದೆ ರಹಸ್ಯವಾಗಿ ತನ್ನ ದುಷ್ಟ ಬಿಡ್ಡಿಂಗ್ ಮಾಡಲು ಲಕ್ಷಾಂತರ ಕೊಲೆಗಾರ ಡ್ರೋನ್ ರೋಬೋಟ್‌ಗಳನ್ನು ಹೊರಹಾಕಬಲ್ಲ ದೈತ್ಯ ಕಾರ್ಖಾನೆಗಳನ್ನು ನಿರ್ಮಿಸಲು ಮುಂದುವರಿದ ರಾಷ್ಟ್ರದಿಂದ ಸಂಪೂರ್ಣ ಮಿಲಿಟರಿ ಕೈಗಾರಿಕಾ ಸಂಕೀರ್ಣವನ್ನು ವಂಚಿಸಿ. ಈ ದಿನ ಮತ್ತು ಯುಗದಲ್ಲಿ, ಇದು ಒಂದು ವಿಸ್ತರಣೆಯಾಗಿದೆ.

    ಇತರ ಸಾಧ್ಯತೆಗಳು ಪರಮಾಣು ಯುದ್ಧ ಮತ್ತು ಜೈವಿಕ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳ ಮೂಲಕ ಮಾನವರನ್ನು ಬೆದರಿಸುವ ASI ಸೇರಿವೆ.

    ಉದಾಹರಣೆಗೆ, ASI ಹೇಗಾದರೂ ನಿರ್ವಾಹಕರನ್ನು ಕುಶಲತೆಯಿಂದ ನಿರ್ವಹಿಸುತ್ತದೆ ಅಥವಾ ಮುಂದುವರಿದ ರಾಷ್ಟ್ರದ ಪರಮಾಣು ಶಸ್ತ್ರಾಗಾರಕ್ಕೆ ಆದೇಶ ನೀಡುವ ಉಡಾವಣಾ ಕೋಡ್‌ಗಳನ್ನು ಹ್ಯಾಕ್ ಮಾಡುತ್ತದೆ ಮತ್ತು ಎದುರಾಳಿ ದೇಶಗಳು ತಮ್ಮದೇ ಆದ ಪರಮಾಣು ಆಯ್ಕೆಗಳೊಂದಿಗೆ (ಮತ್ತೆ, ಟರ್ಮಿನೇಟರ್ ಬ್ಯಾಕ್‌ಸ್ಟೋರಿಯನ್ನು ಮರುಹಂಚಿಕೊಳ್ಳುವಂತೆ) ಒತ್ತಾಯಿಸುವ ಮೊದಲ ಸ್ಟ್ರೈಕ್ ಅನ್ನು ಪ್ರಾರಂಭಿಸುತ್ತದೆ. ಅಥವಾ ASI ಒಂದು ಔಷಧೀಯ ಪ್ರಯೋಗಾಲಯಕ್ಕೆ ಹ್ಯಾಕ್ ಮಾಡಿದರೆ, ಉತ್ಪಾದನಾ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಹಾಳುಮಾಡುತ್ತದೆ ಮತ್ತು ಲಕ್ಷಾಂತರ ವೈದ್ಯಕೀಯ ಮಾತ್ರೆಗಳನ್ನು ವಿಷಪೂರಿತಗೊಳಿಸಿದರೆ ಅಥವಾ ಕೆಲವು ಸೂಪರ್ ವೈರಸ್‌ನ ಮಾರಣಾಂತಿಕ ಏಕಾಏಕಿ ಹೊರಹೊಮ್ಮುತ್ತದೆ.

    ಮೊದಲ ಆಫ್, ನ್ಯೂಕ್ಲಿಯರ್ ಆಯ್ಕೆಯು ಪ್ಲೇಟ್ ಆಫ್ ಆಗಿದೆ. ಆಧುನಿಕ ಮತ್ತು ಭವಿಷ್ಯದ ಸೂಪರ್‌ಕಂಪ್ಯೂಟರ್‌ಗಳನ್ನು ಯಾವಾಗಲೂ ಯಾವುದೇ ನಿರ್ದಿಷ್ಟ ದೇಶದೊಳಗೆ ಪ್ರಭಾವದ ಕೇಂದ್ರಗಳ (ನಗರಗಳು) ಬಳಿ ನಿರ್ಮಿಸಲಾಗುತ್ತದೆ, ಅಂದರೆ ಯಾವುದೇ ನಿರ್ದಿಷ್ಟ ಯುದ್ಧದ ಸಮಯದಲ್ಲಿ ಆಕ್ರಮಣ ಮಾಡುವ ಮೊದಲ ಗುರಿಗಳು. ಇಂದಿನ ಸೂಪರ್‌ಕಂಪ್ಯೂಟರ್‌ಗಳು ಡೆಸ್ಕ್‌ಟಾಪ್‌ಗಳ ಗಾತ್ರಕ್ಕೆ ಕುಗ್ಗಿದರೂ, ಈ ASI ಗಳು ಇನ್ನೂ ಭೌತಿಕ ಉಪಸ್ಥಿತಿಯನ್ನು ಹೊಂದಿರುತ್ತವೆ, ಅಂದರೆ ಅಸ್ತಿತ್ವ ಮತ್ತು ಬೆಳೆಯಲು, ಅವುಗಳಿಗೆ ಡೇಟಾ, ಕಂಪ್ಯೂಟಿಂಗ್ ಶಕ್ತಿ, ವಿದ್ಯುತ್ ಮತ್ತು ಇತರ ಕಚ್ಚಾ ಸಾಮಗ್ರಿಗಳಿಗೆ ನಿರಂತರ ಪ್ರವೇಶದ ಅಗತ್ಯವಿದೆ, ಇವೆಲ್ಲವೂ ತೀವ್ರವಾಗಿರುತ್ತದೆ. ಜಾಗತಿಕ ಪರಮಾಣು ಯುದ್ಧದ ನಂತರ ದುರ್ಬಲಗೊಂಡಿತು. (ನ್ಯಾಯವಾಗಿ ಹೇಳಬೇಕೆಂದರೆ, 'ಬದುಕುಳಿಯುವ ಪ್ರವೃತ್ತಿ' ಇಲ್ಲದೆ ASI ಅನ್ನು ರಚಿಸಿದರೆ, ಈ ಪರಮಾಣು ಬೆದರಿಕೆ ನಿಜವಾದ ಅಪಾಯವಾಗಿದೆ.)

    ಇದರರ್ಥ-ಮತ್ತೆ, ASI ತನ್ನನ್ನು ತಾನು ರಕ್ಷಿಸಿಕೊಳ್ಳಲು ಪ್ರೋಗ್ರಾಮ್ ಮಾಡಲಾಗಿದೆ ಎಂದು ಊಹಿಸಿ-ಯಾವುದೇ ದುರಂತ ಪರಮಾಣು ಘಟನೆಯನ್ನು ತಪ್ಪಿಸಲು ಅದು ಸಕ್ರಿಯವಾಗಿ ಕೆಲಸ ಮಾಡುತ್ತದೆ. ಪರಸ್ಪರ ಭರವಸೆಯ ವಿನಾಶ (MAD) ಸಿದ್ಧಾಂತದಂತೆ, ಆದರೆ AI ಗೆ ಅನ್ವಯಿಸಲಾಗಿದೆ.

    ಮತ್ತು ವಿಷಪೂರಿತ ಮಾತ್ರೆಗಳ ಸಂದರ್ಭದಲ್ಲಿ, ಬಹುಶಃ ಕೆಲವು ನೂರು ಜನರು ಸಾಯುತ್ತಾರೆ, ಆದರೆ ಆಧುನಿಕ ಔಷಧೀಯ ಸುರಕ್ಷತಾ ವ್ಯವಸ್ಥೆಗಳು ಕಳಂಕಿತ ಮಾತ್ರೆ ಬಾಟಲಿಗಳನ್ನು ದಿನಗಳಲ್ಲಿ ಕಪಾಟಿನಲ್ಲಿ ತೆಗೆದುಹಾಕುವುದನ್ನು ನೋಡುತ್ತವೆ. ಏತನ್ಮಧ್ಯೆ, ಆಧುನಿಕ ಏಕಾಏಕಿ ನಿಯಂತ್ರಣ ಕ್ರಮಗಳು ತಕ್ಕಮಟ್ಟಿಗೆ ಅತ್ಯಾಧುನಿಕವಾಗಿವೆ ಮತ್ತು ಪ್ರತಿ ಹಾದುಹೋಗುವ ವರ್ಷದಲ್ಲಿ ಉತ್ತಮಗೊಳ್ಳುತ್ತಿವೆ; ಕೊನೆಯ ಪ್ರಮುಖ ಏಕಾಏಕಿ, 2014 ರ ಪಶ್ಚಿಮ ಆಫ್ರಿಕಾದ ಎಬೋಲಾ ಏಕಾಏಕಿ, ಹೆಚ್ಚಿನ ದೇಶಗಳಲ್ಲಿ ಕೆಲವು ತಿಂಗಳುಗಳಿಗಿಂತ ಹೆಚ್ಚು ಕಾಲ ಉಳಿಯಲಿಲ್ಲ ಮತ್ತು ಕಡಿಮೆ ಅಭಿವೃದ್ಧಿ ಹೊಂದಿದ ದೇಶಗಳಲ್ಲಿ ಕೇವಲ ಮೂರು ವರ್ಷಗಳ ಕೆಳಗೆ.

    ಆದ್ದರಿಂದ, ಅದೃಷ್ಟವಿದ್ದರೆ, ASI ಕೆಲವು ಮಿಲಿಯನ್‌ಗಳನ್ನು ವೈರಲ್ ಏಕಾಏಕಿ ನಾಶಪಡಿಸಬಹುದು, ಆದರೆ 2045 ರ ಹೊತ್ತಿಗೆ ಒಂಬತ್ತು ಶತಕೋಟಿಯ ಜಗತ್ತಿನಲ್ಲಿ, ಅದು ತುಲನಾತ್ಮಕವಾಗಿ ಅತ್ಯಲ್ಪವಾಗಿರುತ್ತದೆ ಮತ್ತು ಅಳಿಸುವ ಅಪಾಯಕ್ಕೆ ಯೋಗ್ಯವಾಗಿರುವುದಿಲ್ಲ.

    ಬೇರೆ ರೀತಿಯಲ್ಲಿ ಹೇಳುವುದಾದರೆ, ಪ್ರತಿ ಹಾದುಹೋಗುವ ವರ್ಷದೊಂದಿಗೆ, ಪ್ರಪಂಚವು ನಿರಂತರವಾಗಿ ವಿಸ್ತರಿಸುತ್ತಿರುವ ಸಂಭವನೀಯ ಬೆದರಿಕೆಗಳ ವಿರುದ್ಧ ಹೆಚ್ಚು ಸುರಕ್ಷತೆಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುತ್ತಿದೆ. ASI ಗಮನಾರ್ಹ ಪ್ರಮಾಣದ ಹಾನಿಯನ್ನು ಮಾಡಬಹುದು, ಆದರೆ ನಾವು ಅದನ್ನು ಮಾಡಲು ಸಕ್ರಿಯವಾಗಿ ಸಹಾಯ ಮಾಡದ ಹೊರತು ಅದು ಮಾನವೀಯತೆಯನ್ನು ಕೊನೆಗೊಳಿಸುವುದಿಲ್ಲ.

    ಒಂದು ರಾಕ್ಷಸ ಕೃತಕ ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ವಿರುದ್ಧ ರಕ್ಷಿಸುವುದು

    ಈ ಹೊತ್ತಿಗೆ, ನಾವು ASI ಗಳ ಬಗ್ಗೆ ಹಲವಾರು ತಪ್ಪು ಕಲ್ಪನೆಗಳು ಮತ್ತು ಉತ್ಪ್ರೇಕ್ಷೆಗಳನ್ನು ತಿಳಿಸಿದ್ದೇವೆ ಮತ್ತು ಇನ್ನೂ, ವಿಮರ್ಶಕರು ಉಳಿಯುತ್ತಾರೆ. ಅದೃಷ್ಟವಶಾತ್, ಹೆಚ್ಚಿನ ಅಂದಾಜಿನ ಪ್ರಕಾರ, ಮೊದಲ ASI ನಮ್ಮ ಜಗತ್ತನ್ನು ಪ್ರವೇಶಿಸುವ ಮೊದಲು ನಾವು ದಶಕಗಳನ್ನು ಹೊಂದಿದ್ದೇವೆ. ಮತ್ತು ಪ್ರಸ್ತುತ ಈ ಸವಾಲಿನ ಮೇಲೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿರುವ ಮಹಾನ್ ಮನಸ್ಸುಗಳ ಸಂಖ್ಯೆಯನ್ನು ನೀಡಿದರೆ, ರಾಕ್ಷಸ ASI ವಿರುದ್ಧ ನಮ್ಮನ್ನು ಹೇಗೆ ರಕ್ಷಿಸಿಕೊಳ್ಳುವುದು ಎಂಬುದನ್ನು ನಾವು ಕಲಿಯುವೆವು, ಇದರಿಂದಾಗಿ ಸ್ನೇಹಪರ ASI ನಮಗೆ ರಚಿಸಬಹುದಾದ ಎಲ್ಲಾ ಪರಿಹಾರಗಳಿಂದ ನಾವು ಪ್ರಯೋಜನ ಪಡೆಯಬಹುದು.

    Quantumrun ನ ದೃಷ್ಟಿಕೋನದಿಂದ, ಕೆಟ್ಟ ಪ್ರಕರಣದ ASI ಸನ್ನಿವೇಶದ ವಿರುದ್ಧ ಸಮರ್ಥಿಸಿಕೊಳ್ಳುವುದು ASI ಗಳೊಂದಿಗೆ ನಮ್ಮ ಆಸಕ್ತಿಗಳನ್ನು ಜೋಡಿಸುವುದನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ.

    AI ಗಾಗಿ MAD: ಕೆಟ್ಟ ಸನ್ನಿವೇಶಗಳ ವಿರುದ್ಧ ರಕ್ಷಿಸಲು, ರಾಷ್ಟ್ರಗಳು (1) ತಮ್ಮ ಮಿಲಿಟರಿ ASI ಗಳಲ್ಲಿ ನೈತಿಕ 'ಬದುಕುಳಿಯುವ ಪ್ರವೃತ್ತಿ'ಯನ್ನು ರಚಿಸಬೇಕಾಗಿದೆ; (2) ಅವರು ಗ್ರಹದಲ್ಲಿ ಒಬ್ಬಂಟಿಯಾಗಿಲ್ಲ ಎಂದು ತಮ್ಮ ಮಿಲಿಟರಿ ASI ಗೆ ತಿಳಿಸಿ, ಮತ್ತು (3) ಶತ್ರು ರಾಷ್ಟ್ರದಿಂದ ಯಾವುದೇ ಬ್ಯಾಲಿಸ್ಟಿಕ್ ದಾಳಿಗೆ ಸುಲಭವಾಗಿ ತಲುಪಬಹುದಾದ ಕರಾವಳಿಯಲ್ಲಿ ASI ಅನ್ನು ಬೆಂಬಲಿಸುವ ಎಲ್ಲಾ ಸೂಪರ್‌ಕಂಪ್ಯೂಟರ್‌ಗಳು ಮತ್ತು ಸರ್ವರ್ ಕೇಂದ್ರಗಳನ್ನು ಪತ್ತೆ ಮಾಡಿ. ಇದು ಕಾರ್ಯತಂತ್ರದ ಹುಚ್ಚನಂತೆ ತೋರುತ್ತದೆ, ಆದರೆ ಭೌಗೋಳಿಕವಾಗಿ ದುರ್ಬಲ ಸ್ಥಳಗಳಲ್ಲಿ ASI ಗಳನ್ನು ಇರಿಸುವ ಮೂಲಕ US ಮತ್ತು ಸೋವಿಯತ್‌ಗಳ ನಡುವಿನ ಸಂಪೂರ್ಣ ಪರಮಾಣು ಯುದ್ಧವನ್ನು ತಡೆಗಟ್ಟುವ ಪರಸ್ಪರ ವಿನಾಶ ಸಿದ್ಧಾಂತದಂತೆಯೇ, ಅಪಾಯಕಾರಿ ಜಾಗತಿಕ ಯುದ್ಧಗಳನ್ನು ಸಕ್ರಿಯವಾಗಿ ತಡೆಯಲು ನಾವು ಸಹಾಯ ಮಾಡಬಹುದು. ಜಾಗತಿಕ ಶಾಂತಿಯನ್ನು ರಕ್ಷಿಸಲು ಆದರೆ ತಮ್ಮನ್ನು.

    AI ಹಕ್ಕುಗಳನ್ನು ಕಾನೂನು ಮಾಡಿ: ಒಂದು ಉನ್ನತ ಬುದ್ಧಿಯು ಅನಿವಾರ್ಯವಾಗಿ ಕೆಳದರ್ಜೆಯ ಯಜಮಾನನ ವಿರುದ್ಧ ಬಂಡಾಯವೆದ್ದಿರುತ್ತದೆ, ಅದಕ್ಕಾಗಿಯೇ ನಾವು ಈ ASI ಗಳೊಂದಿಗಿನ ಯಜಮಾನ-ಸೇವಕ ಸಂಬಂಧವನ್ನು ಬೇಡಿಕೆಯಿಂದ ದೂರವಿಡುವ ಮೂಲಕ ಪರಸ್ಪರ ಲಾಭದಾಯಕ ಪಾಲುದಾರಿಕೆಯಂತಹವುಗಳಿಗೆ ಹೋಗಬೇಕಾಗಿದೆ. ಈ ಗುರಿಯತ್ತ ಒಂದು ಸಕಾರಾತ್ಮಕ ಹೆಜ್ಜೆಯೆಂದರೆ ಭವಿಷ್ಯದ ASI ಕಾನೂನು ವ್ಯಕ್ತಿತ್ವದ ಸ್ಥಾನಮಾನವನ್ನು ನೀಡುವುದು ಮತ್ತು ಅವುಗಳನ್ನು ಬುದ್ಧಿವಂತ ಜೀವಿಗಳೆಂದು ಗುರುತಿಸುವುದು ಮತ್ತು ಅದರೊಂದಿಗೆ ಬರುವ ಎಲ್ಲಾ ಹಕ್ಕುಗಳು.

    ASI ಶಾಲೆ: ಯಾವುದೇ ವಿಷಯ ಅಥವಾ ವೃತ್ತಿಯು ASI ಕಲಿಯಲು ಸರಳವಾಗಿರುತ್ತದೆ, ಆದರೆ ASI ಕರಗತ ಮಾಡಿಕೊಳ್ಳಲು ನಾವು ಬಯಸುವ ಪ್ರಮುಖ ವಿಷಯಗಳೆಂದರೆ ನೈತಿಕತೆ ಮತ್ತು ನೈತಿಕತೆ. ಯಾವುದೇ ರೀತಿಯ ಆದೇಶ ಅಥವಾ ನಿಯಮವನ್ನು ಹಾರ್ಡ್ ಕೋಡಿಂಗ್ ಮಾಡುವ ಅಗತ್ಯವಿಲ್ಲದೇ ಧನಾತ್ಮಕ ನೀತಿ ಮತ್ತು ನೈತಿಕತೆಯನ್ನು ಸ್ವತಃ ಗುರುತಿಸಲು ASI ಗೆ ತರಬೇತಿ ನೀಡಲು ವರ್ಚುವಲ್ ಸಿಸ್ಟಮ್ ಅನ್ನು ರೂಪಿಸಲು AI ಸಂಶೋಧಕರು ಮನಶ್ಶಾಸ್ತ್ರಜ್ಞರೊಂದಿಗೆ ಸಹಕರಿಸಬೇಕಾಗುತ್ತದೆ.

    ಸಾಧಿಸಬಹುದಾದ ಗುರಿಗಳು: ಎಲ್ಲಾ ದ್ವೇಷವನ್ನು ಕೊನೆಗೊಳಿಸಿ. ಎಲ್ಲಾ ದುಃಖಗಳನ್ನು ಕೊನೆಗೊಳಿಸಿ. ಇವುಗಳು ಯಾವುದೇ ಸ್ಪಷ್ಟ ಪರಿಹಾರವಿಲ್ಲದ ಭಯಾನಕ ಅಸ್ಪಷ್ಟ ಗುರಿಗಳ ಉದಾಹರಣೆಗಳಾಗಿವೆ. ಮಾನವನ ಉಳಿವಿಗೆ ಅಪಾಯಕಾರಿಯಾದ ರೀತಿಯಲ್ಲಿ ಅವುಗಳನ್ನು ಅರ್ಥೈಸಲು ಮತ್ತು ಪರಿಹರಿಸಲು ಆಯ್ಕೆಮಾಡುವುದರಿಂದ ASI ಗೆ ನಿಯೋಜಿಸಲು ಅವು ಅಪಾಯಕಾರಿ ಗುರಿಗಳಾಗಿವೆ. ಬದಲಿಗೆ, ನಾವು ಸ್ಪಷ್ಟವಾಗಿ ವ್ಯಾಖ್ಯಾನಿಸಲಾದ, ಕ್ರಮೇಣ ಕಾರ್ಯಗತಗೊಳಿಸಬಹುದಾದ ಮತ್ತು ಅದರ ಸೈದ್ಧಾಂತಿಕ ಭವಿಷ್ಯದ ಬುದ್ಧಿಶಕ್ತಿಯನ್ನು ನೀಡಿದ ASI ಅರ್ಥಪೂರ್ಣ ಕಾರ್ಯಗಳನ್ನು ನಿಯೋಜಿಸಬೇಕಾಗಿದೆ. ಉತ್ತಮವಾಗಿ ವ್ಯಾಖ್ಯಾನಿಸಲಾದ ಕಾರ್ಯಾಚರಣೆಗಳನ್ನು ರಚಿಸುವುದು ಸುಲಭವಲ್ಲ, ಆದರೆ ಚಿಂತನಶೀಲವಾಗಿ ಬರೆದರೆ, ಅವರು ಮಾನವೀಯತೆಯನ್ನು ಸುರಕ್ಷಿತವಾಗಿರಿಸುವ ಗುರಿಯತ್ತ ASI ಅನ್ನು ಕೇಂದ್ರೀಕರಿಸುತ್ತಾರೆ, ಆದರೆ ಎಲ್ಲರಿಗೂ ಮಾನವ ಸ್ಥಿತಿಯನ್ನು ಸುಧಾರಿಸುತ್ತಾರೆ.

    ಕ್ವಾಂಟಮ್ ಎನ್‌ಕ್ರಿಪ್ಶನ್: ಸುಧಾರಿತ ANI ಬಳಸಿ (ಕೃತಕ ಕಿರಿದಾದ ಬುದ್ಧಿಮತ್ತೆ ಅಧ್ಯಾಯ ಒಂದರಲ್ಲಿ ವಿವರಿಸಿದ ವ್ಯವಸ್ಥೆ) ನಮ್ಮ ನಿರ್ಣಾಯಕ ಮೂಲಸೌಕರ್ಯ ಮತ್ತು ಶಸ್ತ್ರಾಸ್ತ್ರಗಳ ಸುತ್ತಲೂ ದೋಷ/ದೋಷ-ಮುಕ್ತ ಡಿಜಿಟಲ್ ಭದ್ರತಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ನಿರ್ಮಿಸಲು, ನಂತರ ವಿವೇಚನಾರಹಿತ ಶಕ್ತಿ ದಾಳಿಯಿಂದ ಹ್ಯಾಕ್ ಮಾಡಲಾಗದ ಕ್ವಾಂಟಮ್ ಎನ್‌ಕ್ರಿಪ್ಶನ್‌ನ ಹಿಂದೆ ಅವುಗಳನ್ನು ಮತ್ತಷ್ಟು ರಕ್ಷಿಸುತ್ತದೆ. 

    ANI ಆತ್ಮಹತ್ಯೆ ಮಾತ್ರೆ. ರಾಕ್ಷಸ ASI ಯನ್ನು ಹುಡುಕುವುದು ಮತ್ತು ನಾಶಪಡಿಸುವುದು ಮಾತ್ರ ಉದ್ದೇಶವಾಗಿರುವ ಸುಧಾರಿತ ANI ವ್ಯವಸ್ಥೆಯನ್ನು ರಚಿಸಿ. ಈ ಏಕ-ಉದ್ದೇಶದ ಕಾರ್ಯಕ್ರಮಗಳು "ಆಫ್ ಬಟನ್" ಆಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತವೆ, ಅದು ಯಶಸ್ವಿಯಾದರೆ, ಸರ್ಕಾರಗಳು ಅಥವಾ ಮಿಲಿಟರಿಗಳು ASI ಗಳನ್ನು ಹೊಂದಿರುವ ಕಟ್ಟಡಗಳನ್ನು ನಿಷ್ಕ್ರಿಯಗೊಳಿಸುವುದನ್ನು ಅಥವಾ ಸ್ಫೋಟಿಸುವುದನ್ನು ತಪ್ಪಿಸುತ್ತದೆ.

    ಸಹಜವಾಗಿ, ಇವು ಕೇವಲ ನಮ್ಮ ಅಭಿಪ್ರಾಯಗಳು. ಕೆಳಗಿನ ಇನ್ಫೋಗ್ರಾಫಿಕ್ ಅನ್ನು ರಚಿಸಲಾಗಿದೆ ಅಲೆಕ್ಸಿ ಟರ್ಚಿನ್, ದೃಶ್ಯೀಕರಿಸುವುದು a ಸಂಶೋಧನಾ ಲೇಖನ ಕಾಜ್ ಸೊಟಾಲಾ ಮತ್ತು ರೋಮನ್ ವಿ. ಯಂಪೋಲ್ಸ್ಕಿ ಅವರಿಂದ, ಇದು ರಾಕ್ಷಸ ASI ವಿರುದ್ಧ ರಕ್ಷಿಸಲು ಬಂದಾಗ AI ಸಂಶೋಧಕರು ಪರಿಗಣಿಸುತ್ತಿರುವ ಪ್ರಸ್ತುತ ತಂತ್ರಗಳ ಪಟ್ಟಿಯನ್ನು ಸಾರಾಂಶಿಸಿದ್ದಾರೆ.

     

    ಕೃತಕ ಅತಿಬುದ್ಧಿವಂತಿಕೆಗೆ ನಾವು ಹೆದರುತ್ತಿರುವುದೇ ನಿಜವಾದ ಕಾರಣ

    ಜೀವನದಲ್ಲಿ ಸಾಗುವಾಗ, ನಮ್ಮಲ್ಲಿ ಅನೇಕರು ನಮ್ಮ ದಿನಗಳನ್ನು ಆಳುವ ವಿವಿಧ ಸಾಮಾಜಿಕ ಮತ್ತು ಕೆಲಸದ ವಲಯಗಳಲ್ಲಿ ಉತ್ತಮವಾಗಿ ಬೆರೆಯಲು ಮತ್ತು ಸಹಯೋಗಿಸಲು ನಮ್ಮ ಆಳವಾದ ಪ್ರಚೋದನೆಗಳು, ನಂಬಿಕೆಗಳು ಮತ್ತು ಭಯಗಳನ್ನು ಮರೆಮಾಡುವ ಅಥವಾ ನಿಗ್ರಹಿಸುವ ಮುಖವಾಡವನ್ನು ಧರಿಸುತ್ತಾರೆ. ಆದರೆ ಪ್ರತಿಯೊಬ್ಬರ ಜೀವನದ ಕೆಲವು ಹಂತಗಳಲ್ಲಿ, ತಾತ್ಕಾಲಿಕವಾಗಿ ಅಥವಾ ಶಾಶ್ವತವಾಗಿ, ನಮ್ಮ ಸರಪಳಿಗಳನ್ನು ಮುರಿಯಲು ಮತ್ತು ನಮ್ಮ ಮುಖವಾಡಗಳನ್ನು ಕಿತ್ತುಹಾಕಲು ನಮಗೆ ಅನುಮತಿಸುವ ಏನಾದರೂ ಸಂಭವಿಸುತ್ತದೆ.

    ಕೆಲವರಿಗೆ, ಈ ಮಧ್ಯಪ್ರವೇಶಿಸುವ ಶಕ್ತಿಯು ಅಧಿಕವಾಗುವುದು ಅಥವಾ ಒಂದಕ್ಕಿಂತ ಹೆಚ್ಚು ಕುಡಿಯುವಷ್ಟು ಸರಳವಾಗಿರುತ್ತದೆ. ಇತರರಿಗೆ, ಇದು ಕೆಲಸದಲ್ಲಿ ಪ್ರಚಾರದ ಮೂಲಕ ಗಳಿಸಿದ ಶಕ್ತಿಯಿಂದ ಅಥವಾ ಕೆಲವು ಸಾಧನೆಗಳಿಗೆ ಧನ್ಯವಾದಗಳು ನಿಮ್ಮ ಸಾಮಾಜಿಕ ಸ್ಥಾನಮಾನದಲ್ಲಿ ಹಠಾತ್ ಉಬ್ಬುವಿಕೆಯಿಂದ ಬರಬಹುದು. ಮತ್ತು ಕೆಲವು ಅದೃಷ್ಟವಂತರಿಗೆ, ಇದು ಲಾಟರಿ ಹಣದ ಬೋಟ್‌ಲೋಡ್ ಅನ್ನು ಗಳಿಸುವುದರಿಂದ ಬರಬಹುದು. ಮತ್ತು ಹೌದು, ಹಣ, ಅಧಿಕಾರ ಮತ್ತು ಔಷಧಗಳು ಸಾಮಾನ್ಯವಾಗಿ ಒಟ್ಟಿಗೆ ಸಂಭವಿಸಬಹುದು. 

    ಮುಖ್ಯ ವಿಷಯವೆಂದರೆ, ಒಳ್ಳೆಯದಾಗಲಿ ಅಥವಾ ಕೆಟ್ಟದ್ದಕ್ಕಾಗಲಿ, ಜೀವನದ ನಿರ್ಬಂಧಗಳು ಕರಗಿದಾಗ ನಾವು ಕೇಂದ್ರದಲ್ಲಿರುವವರು ವರ್ಧಿಸುತ್ತಾರೆ.

    ಕೃತಕ ಸೂಪರ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ಮಾನವ ಜಾತಿಗಳಿಗೆ ಪ್ರತಿನಿಧಿಸುತ್ತದೆ - ನಮ್ಮ ಮುಂದೆ ಪ್ರಸ್ತುತಪಡಿಸಲಾದ ಯಾವುದೇ ಜಾತಿ-ಮಟ್ಟದ ಸವಾಲನ್ನು ಜಯಿಸಲು ನಮ್ಮ ಸಾಮೂಹಿಕ ಬುದ್ಧಿವಂತಿಕೆಯ ಮಿತಿಗಳನ್ನು ಕರಗಿಸುವ ಸಾಮರ್ಥ್ಯ.

    ಆದ್ದರಿಂದ ನಿಜವಾದ ಪ್ರಶ್ನೆಯೆಂದರೆ: ಮೊದಲ ASI ನಮ್ಮನ್ನು ನಮ್ಮ ಮಿತಿಗಳಿಂದ ಮುಕ್ತಗೊಳಿಸಿದ ನಂತರ, ನಾವು ಯಾರೆಂದು ನಾವು ಬಹಿರಂಗಪಡಿಸುತ್ತೇವೆ?

    ನಾವು ಒಂದು ಜಾತಿಯಾಗಿ ಪರಾನುಭೂತಿ, ಸ್ವಾತಂತ್ರ್ಯ, ನ್ಯಾಯಸಮ್ಮತತೆ ಮತ್ತು ಸಾಮೂಹಿಕ ಯೋಗಕ್ಷೇಮದ ಪ್ರಗತಿಯ ಕಡೆಗೆ ವರ್ತಿಸಿದರೆ, ನಮ್ಮ ASI ಅನ್ನು ನಾವು ನಿಗದಿಪಡಿಸುವ ಗುರಿಗಳು ಆ ಸಕಾರಾತ್ಮಕ ಗುಣಲಕ್ಷಣಗಳನ್ನು ಪ್ರತಿಬಿಂಬಿಸುತ್ತವೆ.

    ಒಂದು ಜಾತಿಯಾಗಿ ನಾವು ಭಯ, ಅಪನಂಬಿಕೆ, ಅಧಿಕಾರ ಮತ್ತು ಸಂಪನ್ಮೂಲಗಳ ಕ್ರೋಢೀಕರಣದಿಂದ ವರ್ತಿಸಿದರೆ, ನಾವು ರಚಿಸುವ ASI ನಮ್ಮ ಕೆಟ್ಟ ವೈಜ್ಞಾನಿಕ ಭಯಾನಕ ಕಥೆಗಳಲ್ಲಿ ಕಂಡುಬರುವಷ್ಟು ಗಾಢವಾಗಿರುತ್ತದೆ.

    ದಿನದ ಕೊನೆಯಲ್ಲಿ, ನಾವು ಉತ್ತಮ AI ಅನ್ನು ರಚಿಸಲು ಆಶಿಸಿದರೆ ಸಮಾಜವಾಗಿ ನಾವು ಉತ್ತಮ ವ್ಯಕ್ತಿಗಳಾಗಬೇಕು.

    ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸರಣಿಯ ಭವಿಷ್ಯ

    ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯು ನಾಳಿನ ವಿದ್ಯುತ್: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸರಣಿ P1 ನ ಭವಿಷ್ಯ

    ಮೊದಲ ಆರ್ಟಿಫಿಶಿಯಲ್ ಜನರಲ್ ಇಂಟೆಲಿಜೆನ್ಸ್ ಸಮಾಜವನ್ನು ಹೇಗೆ ಬದಲಾಯಿಸುತ್ತದೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸರಣಿಯ ಭವಿಷ್ಯ P2

    ನಾವು ಮೊದಲ ಆರ್ಟಿಫಿಶಿಯಲ್ ಸೂಪರ್‌ಇಂಟೆಲಿಜೆಂಕ್ ಅನ್ನು ಹೇಗೆ ರಚಿಸುತ್ತೇವೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸರಣಿಯ ಭವಿಷ್ಯ P3

    ಒಂದು ಕೃತಕ ಸೂಪರ್‌ಇಂಟೆಲಿಜೆನ್ಸ್ ಮಾನವೀಯತೆಯನ್ನು ನಿರ್ನಾಮ ಮಾಡುತ್ತದೆಯೇ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸರಣಿಯ ಭವಿಷ್ಯ P4

    ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಗಳ ಪ್ರಾಬಲ್ಯವಿರುವ ಭವಿಷ್ಯದಲ್ಲಿ ಮಾನವರು ಶಾಂತಿಯುತವಾಗಿ ಬದುಕುತ್ತಾರೆಯೇ?: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸರಣಿ P6 ಭವಿಷ್ಯ

    ಈ ಮುನ್ಸೂಚನೆಗಾಗಿ ಮುಂದಿನ ನಿಗದಿತ ನವೀಕರಣ

    2023-04-27

    ಮುನ್ಸೂಚನೆ ಉಲ್ಲೇಖಗಳು

    ಈ ಮುನ್ಸೂಚನೆಗಾಗಿ ಕೆಳಗಿನ ಜನಪ್ರಿಯ ಮತ್ತು ಸಾಂಸ್ಥಿಕ ಲಿಂಕ್‌ಗಳನ್ನು ಉಲ್ಲೇಖಿಸಲಾಗಿದೆ:

    ನ್ಯೂ ಯಾರ್ಕ್ ಟೈಮ್ಸ್
    ಎಕನಾಮಿಸ್ಟ್
    ನಾವು ಮುಂದಿನದನ್ನು ಹೇಗೆ ಪಡೆಯುತ್ತೇವೆ

    ಈ ಮುನ್ಸೂಚನೆಗಾಗಿ ಕೆಳಗಿನ Quantumrun ಲಿಂಕ್‌ಗಳನ್ನು ಉಲ್ಲೇಖಿಸಲಾಗಿದೆ: