AI ಜೋಡಣೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಗುರಿಗಳನ್ನು ಹೊಂದಿಸುವುದು ಮಾನವ ಮೌಲ್ಯಗಳಿಗೆ ಹೊಂದಿಕೆಯಾಗುತ್ತದೆ

ಚಿತ್ರ ಕ್ರೆಡಿಟ್:
ಚಿತ್ರ ಕ್ರೆಡಿಟ್
ಐಸ್ಟಾಕ್

AI ಜೋಡಣೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಗುರಿಗಳನ್ನು ಹೊಂದಿಸುವುದು ಮಾನವ ಮೌಲ್ಯಗಳಿಗೆ ಹೊಂದಿಕೆಯಾಗುತ್ತದೆ

AI ಜೋಡಣೆ: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಗುರಿಗಳನ್ನು ಹೊಂದಿಸುವುದು ಮಾನವ ಮೌಲ್ಯಗಳಿಗೆ ಹೊಂದಿಕೆಯಾಗುತ್ತದೆ

ಉಪಶೀರ್ಷಿಕೆ ಪಠ್ಯ
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು ಸಮಾಜಕ್ಕೆ ಹಾನಿಯಾಗದಂತೆ ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು ಕ್ರಮಗಳನ್ನು ಅಳವಡಿಸಬೇಕು ಎಂದು ಕೆಲವು ಸಂಶೋಧಕರು ನಂಬುತ್ತಾರೆ.
    • ಲೇಖಕ ಬಗ್ಗೆ:
    • ಲೇಖಕ ಹೆಸರು
      ಕ್ವಾಂಟಮ್ರನ್ ದೂರದೃಷ್ಟಿ
    • ಜನವರಿ 25, 2023

    ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (AI) ಜೋಡಣೆ ಎಂದರೆ AI ವ್ಯವಸ್ಥೆಯ ಗುರಿಗಳು ಮಾನವ ಮೌಲ್ಯಗಳಿಗೆ ಹೊಂದಿಕೆಯಾಗುವುದು. OpenAI, DeepMind ಮತ್ತು Anthropic ನಂತಹ ಕಂಪನಿಗಳು ಸಂಶೋಧಕರ ತಂಡಗಳನ್ನು ಹೊಂದಿದ್ದು, ಇದು ಸಂಭವಿಸಬಹುದಾದ ವಿಭಿನ್ನ ಸನ್ನಿವೇಶಗಳಿಗಾಗಿ ಗಾರ್ಡ್‌ರೈಲ್‌ಗಳನ್ನು ಅಧ್ಯಯನ ಮಾಡುವುದು ಅವರ ಏಕೈಕ ಗಮನವಾಗಿದೆ.

    AI ಜೋಡಣೆ ಸಂದರ್ಭ

    2021 ರ ಕಾರ್ನೆಲ್ ವಿಶ್ವವಿದ್ಯಾಲಯದ ಸಂಶೋಧನಾ ಅಧ್ಯಯನದ ಪ್ರಕಾರ, ಅಲ್ಗಾರಿದಮ್‌ಗಳಿಂದ ರಚಿಸಲಾದ ಉಪಕರಣಗಳು ಅಥವಾ ಮಾದರಿಗಳು ಅವರು ತರಬೇತಿ ಪಡೆದ ಡೇಟಾದಿಂದ ಪಡೆದ ಪಕ್ಷಪಾತವನ್ನು ಪ್ರದರ್ಶಿಸುತ್ತವೆ ಎಂದು ಹಲವಾರು ಅಧ್ಯಯನಗಳು ತೋರಿಸಿವೆ. ಉದಾಹರಣೆಗೆ, ನೈಸರ್ಗಿಕ ಭಾಷಾ ಸಂಸ್ಕರಣೆಯಲ್ಲಿ (NLP), ಸೀಮಿತ ಡೇಟಾ ಸೆಟ್‌ಗಳಲ್ಲಿ ತರಬೇತಿ ಪಡೆದ ಆಯ್ದ NLP ಮಾದರಿಗಳು ಮಹಿಳೆಯರ ವಿರುದ್ಧ ಹಾನಿಕಾರಕ ಲಿಂಗ ಸ್ಟೀರಿಯೊಟೈಪ್‌ಗಳ ಆಧಾರದ ಮೇಲೆ ಮುನ್ಸೂಚನೆಗಳನ್ನು ದಾಖಲಿಸಲಾಗಿದೆ. ಅಂತೆಯೇ, ಇತರ ಅಧ್ಯಯನಗಳು ಟ್ಯಾಂಪರ್ಡ್ ಡೇಟಾ ಸೆಟ್‌ನಲ್ಲಿ ತರಬೇತಿ ಪಡೆದ ಅಲ್ಗಾರಿದಮ್‌ಗಳು ಜನಾಂಗೀಯ ಪಕ್ಷಪಾತದ ಶಿಫಾರಸುಗಳಿಗೆ ಕಾರಣವಾಗಿವೆ, ವಿಶೇಷವಾಗಿ ಪೋಲೀಸಿಂಗ್‌ನಲ್ಲಿ.

    ಬಹು ಅನನುಕೂಲಗಳಿಂದ ಬಳಲುತ್ತಿರುವ ಅಲ್ಪಸಂಖ್ಯಾತರು ಅಥವಾ ಗುಂಪುಗಳಿಗೆ ಯಂತ್ರ ಕಲಿಕೆ ವ್ಯವಸ್ಥೆಗಳು ಕೆಟ್ಟದಾಗಿ ಮಾಡಿದ ಉದಾಹರಣೆಗಳು ಸಾಕಷ್ಟಿವೆ. ನಿರ್ದಿಷ್ಟವಾಗಿ ಹೇಳುವುದಾದರೆ, ಸ್ವಯಂಚಾಲಿತ ಮುಖದ ವಿಶ್ಲೇಷಣೆ ಮತ್ತು ಆರೋಗ್ಯ ರೋಗನಿರ್ಣಯವು ಸಾಮಾನ್ಯವಾಗಿ ಮಹಿಳೆಯರು ಮತ್ತು ಬಣ್ಣದ ಜನರಿಗೆ ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುವುದಿಲ್ಲ. ಭಾವನೆಗಳ ಬದಲಿಗೆ ಸತ್ಯ ಮತ್ತು ತರ್ಕವನ್ನು ಆಧರಿಸಿರಬೇಕಾದ ನಿರ್ಣಾಯಕ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಆರೋಗ್ಯ ಅಥವಾ ಶಿಕ್ಷಣದಂತಹ ಸಂದರ್ಭಗಳಲ್ಲಿ ಬಳಸಿದಾಗ, ಈ ಶಿಫಾರಸುಗಳ ಹಿಂದಿನ ತಾರ್ಕಿಕತೆಯನ್ನು ಗುರುತಿಸಲು ಕಷ್ಟವಾಗಿಸುವ ಮೂಲಕ ಅವು ಹೆಚ್ಚು ಹಾನಿಯನ್ನುಂಟುಮಾಡುತ್ತವೆ.

    ಪರಿಣಾಮವಾಗಿ, ಟೆಕ್ ಸಂಸ್ಥೆಗಳು ಅಲ್ಗಾರಿದಮ್‌ಗಳನ್ನು ನ್ಯಾಯೋಚಿತ ಮತ್ತು ಮಾನವೀಯವಾಗಿ ಇರಿಸಿಕೊಳ್ಳಲು ಕೇಂದ್ರೀಕರಿಸಲು AI ಜೋಡಣೆ ತಂಡಗಳನ್ನು ರಚಿಸುತ್ತಿವೆ. ಮುಂದುವರಿದ AI ವ್ಯವಸ್ಥೆಗಳ ದಿಕ್ಕನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಸಂಶೋಧನೆ ಅತ್ಯಗತ್ಯ, ಹಾಗೆಯೇ AI ಸಾಮರ್ಥ್ಯಗಳು ಬೆಳೆದಂತೆ ನಾವು ಎದುರಿಸಬಹುದಾದ ಸವಾಲುಗಳು.

    ಅಡ್ಡಿಪಡಿಸುವ ಪರಿಣಾಮ

    OpenAI (2021) ನಲ್ಲಿ AI ಜೋಡಣೆಯ ಮುಖ್ಯಸ್ಥರಾದ Jan Leike ಪ್ರಕಾರ, AI ವ್ಯವಸ್ಥೆಗಳು 2010 ರ ದಶಕದಲ್ಲಿ ಮಾತ್ರ ಸಮರ್ಥವಾಗಿವೆ, ಹೆಚ್ಚಿನ AI ಜೋಡಣೆ ಸಂಶೋಧನೆಯು ಸಿದ್ಧಾಂತ-ಭಾರವಾಗಿದೆ ಎಂಬುದು ಅರ್ಥವಾಗುವಂತಹದ್ದಾಗಿದೆ. ಅಗಾಧವಾಗಿ ಶಕ್ತಿಯುತವಾದ AI ವ್ಯವಸ್ಥೆಗಳನ್ನು ಜೋಡಿಸಿದಾಗ, ಮಾನವರು ಎದುರಿಸುವ ಸವಾಲುಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ, ಈ ಯಂತ್ರಗಳು ನೈತಿಕವಾಗಿ ಅರ್ಥಮಾಡಿಕೊಂಡರೆ ಪರಿಶೀಲಿಸಲು ಮತ್ತು ನಿರ್ಣಯಿಸಲು ತುಂಬಾ ಸಂಕೀರ್ಣವಾದ ಪರಿಹಾರಗಳನ್ನು ರಚಿಸಬಹುದು.

    ಈ ಸಮಸ್ಯೆಯನ್ನು ಪರಿಹರಿಸಲು ಲೈಕ್ ಪುನರಾವರ್ತಿತ ಪ್ರತಿಫಲ ಮಾಡೆಲಿಂಗ್ (RRM) ತಂತ್ರವನ್ನು ರೂಪಿಸಿದರು. RRM ನೊಂದಿಗೆ, ಹೆಚ್ಚು ಸಂಕೀರ್ಣವಾದ AI ಎಷ್ಟು ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಎಂಬುದನ್ನು ಮೌಲ್ಯಮಾಪನ ಮಾಡಲು ಮಾನವನಿಗೆ ಸಹಾಯ ಮಾಡಲು ಹಲವಾರು "ಸಹಾಯಕ" AI ಗಳನ್ನು ಕಲಿಸಲಾಗುತ್ತದೆ. ಅವರು "ಜೋಡಣೆ MVP" ಎಂದು ಉಲ್ಲೇಖಿಸುವ ಏನನ್ನಾದರೂ ರಚಿಸುವ ಸಾಧ್ಯತೆಯ ಬಗ್ಗೆ ಅವರು ಆಶಾವಾದಿಯಾಗಿದ್ದಾರೆ. ಆರಂಭಿಕ ಪರಿಭಾಷೆಯಲ್ಲಿ, MVP (ಅಥವಾ ಕನಿಷ್ಠ ಕಾರ್ಯಸಾಧ್ಯವಾದ ಉತ್ಪನ್ನ) ಒಂದು ಕಲ್ಪನೆಯನ್ನು ಪರೀಕ್ಷಿಸಲು ಕಂಪನಿಯು ನಿರ್ಮಿಸಬಹುದಾದ ಸರಳವಾದ ಉತ್ಪನ್ನವಾಗಿದೆ. ಒಂದು ದಿನ, AI ಸಂಶೋಧನೆಯಲ್ಲಿ ಮಾನವ ಕಾರ್ಯಕ್ಷಮತೆಯನ್ನು ಹೊಂದುತ್ತದೆ ಮತ್ತು ಕ್ರಿಯಾತ್ಮಕವಾಗಿರುವಾಗ ಮೌಲ್ಯಗಳೊಂದಿಗೆ ಅದರ ಜೋಡಣೆಯನ್ನು ಹೊಂದಿಸುತ್ತದೆ ಎಂಬುದು ಆಶಯ.

    AI ಜೋಡಣೆಯಲ್ಲಿ ಆಸಕ್ತಿಯನ್ನು ಹೆಚ್ಚಿಸುವುದು ನಿವ್ವಳ ಧನಾತ್ಮಕವಾಗಿದ್ದರೂ, ಪ್ರಮುಖ AI ಲ್ಯಾಬ್‌ಗಳಲ್ಲಿನ ಹೆಚ್ಚಿನ "ನೈತಿಕತೆ" ಕೆಲಸವು ಟೆಕ್ ಕಂಪನಿಗಳು ಉತ್ತಮವಾಗಿ ಕಾಣುವಂತೆ ಮತ್ತು ಋಣಾತ್ಮಕ ಪ್ರಚಾರವನ್ನು ತಪ್ಪಿಸಲು ವಿನ್ಯಾಸಗೊಳಿಸಲಾದ ಸಾರ್ವಜನಿಕ ಸಂಬಂಧಗಳು ಎಂದು ಕ್ಷೇತ್ರದ ಅನೇಕ ವಿಶ್ಲೇಷಕರು ಭಾವಿಸುತ್ತಾರೆ. ಈ ವ್ಯಕ್ತಿಗಳು ಯಾವುದೇ ಸಮಯದಲ್ಲಿ ಶೀಘ್ರದಲ್ಲೇ ಈ ಕಂಪನಿಗಳಿಗೆ ನೈತಿಕ ಅಭಿವೃದ್ಧಿ ಅಭ್ಯಾಸಗಳು ಆದ್ಯತೆಯಾಗುತ್ತವೆ ಎಂದು ನಿರೀಕ್ಷಿಸುವುದಿಲ್ಲ.

    ಈ ಅವಲೋಕನಗಳು ಮೌಲ್ಯ ಜೋಡಣೆಯ ಪ್ರಯತ್ನಗಳಿಗಾಗಿ ಅಂತರಶಿಸ್ತೀಯ ವಿಧಾನಗಳ ಪ್ರಾಮುಖ್ಯತೆಯನ್ನು ಎತ್ತಿ ತೋರಿಸುತ್ತವೆ, ಏಕೆಂದರೆ ಇದು ನೈತಿಕ ಮತ್ತು ತಾಂತ್ರಿಕ ವಿಚಾರಣೆಯ ತುಲನಾತ್ಮಕವಾಗಿ ಹೊಸ ಕ್ಷೇತ್ರವಾಗಿದೆ. ಜ್ಞಾನದ ವಿವಿಧ ಶಾಖೆಗಳು ಅಂತರ್ಗತ ಸಂಶೋಧನಾ ಕಾರ್ಯಸೂಚಿಯ ಭಾಗವಾಗಿರಬೇಕು. ಈ ಉಪಕ್ರಮವು ತಂತ್ರಜ್ಞರು ಮತ್ತು ನೀತಿ ನಿರೂಪಕರು ತಮ್ಮ ಸಾಮಾಜಿಕ ಸನ್ನಿವೇಶ ಮತ್ತು ಮಧ್ಯಸ್ಥಗಾರರ ಬಗ್ಗೆ ತಿಳಿದಿರುವ ಅಗತ್ಯವನ್ನು ಸೂಚಿಸುತ್ತದೆ, AI ವ್ಯವಸ್ಥೆಗಳು ಹೆಚ್ಚು ಮುಂದುವರಿದರೂ ಸಹ.

    AI ಜೋಡಣೆಯ ಪರಿಣಾಮಗಳು

    AI ಜೋಡಣೆಯ ವ್ಯಾಪಕ ಪರಿಣಾಮಗಳು ಒಳಗೊಂಡಿರಬಹುದು: 

    • ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಪ್ರಯೋಗಾಲಯಗಳು ಯೋಜನೆಗಳನ್ನು ಮೇಲ್ವಿಚಾರಣೆ ಮಾಡಲು ಮತ್ತು ನೈತಿಕ AI ಮಾರ್ಗಸೂಚಿಗಳನ್ನು ಪೂರೈಸಲು ವೈವಿಧ್ಯಮಯ ನೈತಿಕ ಮಂಡಳಿಗಳನ್ನು ನೇಮಿಸಿಕೊಳ್ಳುತ್ತವೆ. 
    • ಕಂಪನಿಗಳು ತಮ್ಮ ಜವಾಬ್ದಾರಿಯುತ AI ಚೌಕಟ್ಟನ್ನು ಸಲ್ಲಿಸಲು ಅಗತ್ಯವಿರುವ ಕಾನೂನುಗಳನ್ನು ರಚಿಸುವ ಸರ್ಕಾರಗಳು ಮತ್ತು ಅವರು ತಮ್ಮ AI ಯೋಜನೆಗಳನ್ನು ಮತ್ತಷ್ಟು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು ಹೇಗೆ ಯೋಜಿಸುತ್ತಾರೆ.
    • ನೇಮಕಾತಿ, ಸಾರ್ವಜನಿಕ ಕಣ್ಗಾವಲು ಮತ್ತು ಕಾನೂನು ಜಾರಿಯಲ್ಲಿ ಅಲ್ಗಾರಿದಮ್‌ಗಳ ಬಳಕೆಯ ಮೇಲೆ ಹೆಚ್ಚಿದ ವಿವಾದಗಳು.
    • ನೈತಿಕತೆ ಮತ್ತು ಸಾಂಸ್ಥಿಕ ಗುರಿಗಳ ನಡುವಿನ ಆಸಕ್ತಿಯ ಘರ್ಷಣೆಯಿಂದಾಗಿ ಸಂಶೋಧಕರನ್ನು ದೊಡ್ಡ AI ಲ್ಯಾಬ್‌ಗಳಿಂದ ವಜಾಗೊಳಿಸಲಾಗಿದೆ.
    • ನಂಬಲಾಗದಷ್ಟು ಶಕ್ತಿಶಾಲಿ ಆದರೆ ಮಾನವ ಹಕ್ಕುಗಳನ್ನು ಸಂಭಾವ್ಯವಾಗಿ ಉಲ್ಲಂಘಿಸಬಹುದಾದ ಸುಧಾರಿತ AI ವ್ಯವಸ್ಥೆಗಳನ್ನು ನಿಯಂತ್ರಿಸಲು ಸರ್ಕಾರಗಳಿಗೆ ಹೆಚ್ಚಿನ ಒತ್ತಡ.

    ಕಾಮೆಂಟ್ ಮಾಡಲು ಪ್ರಶ್ನೆಗಳು

    • ಅವರು ರಚಿಸುವ AI ವ್ಯವಸ್ಥೆಗಳಿಗೆ ಸಂಸ್ಥೆಗಳನ್ನು ಹೇಗೆ ಹೊಣೆಗಾರರನ್ನಾಗಿ ಮಾಡಬಹುದು?
    • AI ತಪ್ಪಾಗಿ ಜೋಡಿಸಿದರೆ ಇತರ ಸಂಭಾವ್ಯ ಅಪಾಯಗಳು ಯಾವುವು?

    ಒಳನೋಟ ಉಲ್ಲೇಖಗಳು

    ಈ ಒಳನೋಟಕ್ಕಾಗಿ ಕೆಳಗಿನ ಜನಪ್ರಿಯ ಮತ್ತು ಸಾಂಸ್ಥಿಕ ಲಿಂಕ್‌ಗಳನ್ನು ಉಲ್ಲೇಖಿಸಲಾಗಿದೆ: