ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾ: AI ಅನ್ನು ಪಕ್ಷಪಾತದ ಡೇಟಾವನ್ನು ಕಲಿಸಿದಾಗ

ಚಿತ್ರ ಕ್ರೆಡಿಟ್:
ಚಿತ್ರ ಕ್ರೆಡಿಟ್
ಐಸ್ಟಾಕ್

ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾ: AI ಅನ್ನು ಪಕ್ಷಪಾತದ ಡೇಟಾವನ್ನು ಕಲಿಸಿದಾಗ

ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾ: AI ಅನ್ನು ಪಕ್ಷಪಾತದ ಡೇಟಾವನ್ನು ಕಲಿಸಿದಾಗ

ಉಪಶೀರ್ಷಿಕೆ ಪಠ್ಯ
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಕೆಲವೊಮ್ಮೆ ವ್ಯಕ್ತಿನಿಷ್ಠ ಡೇಟಾದೊಂದಿಗೆ ಪರಿಚಯಿಸಲಾಗುತ್ತದೆ, ಅದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ ಮತ್ತು ನಿರ್ಧಾರಗಳನ್ನು ತೆಗೆದುಕೊಳ್ಳುತ್ತದೆ.
    • ಲೇಖಕ ಬಗ್ಗೆ:
    • ಲೇಖಕ ಹೆಸರು
      ಕ್ವಾಂಟಮ್ರನ್ ದೂರದೃಷ್ಟಿ
    • ಅಕ್ಟೋಬರ್ 14, 2022

    ಒಳನೋಟ ಸಾರಾಂಶ

    ನಾವು ಕಲಿಯುವುದು ಮತ್ತು ಆಂತರಿಕಗೊಳಿಸುವುದು ನಾವು; ಈ ನಿರ್ದೇಶನವು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಗೆ (AI) ಅನ್ವಯಿಸುತ್ತದೆ. ಯಂತ್ರ ಕಲಿಕೆ (ML) ಮಾದರಿಗಳು ಅಪೂರ್ಣ, ಪಕ್ಷಪಾತ, ಮತ್ತು ಅನೈತಿಕ ದತ್ತಾಂಶದೊಂದಿಗೆ ನೀಡಲ್ಪಡುತ್ತವೆ ಅಂತಿಮವಾಗಿ ಸಮಸ್ಯಾತ್ಮಕ ನಿರ್ಧಾರಗಳನ್ನು ಮತ್ತು ಸಲಹೆಗಳನ್ನು ಮಾಡುತ್ತವೆ. ಸಂಶೋಧಕರು ಜಾಗರೂಕರಾಗಿರದಿದ್ದರೆ ಈ ಶಕ್ತಿಯುತ ಅಲ್ಗಾರಿದಮ್‌ಗಳು ಬಳಕೆದಾರರ ನೈತಿಕತೆ ಮತ್ತು ಗ್ರಹಿಕೆಗಳ ಮೇಲೆ ಪ್ರಭಾವ ಬೀರಬಹುದು.

    ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾ ಸಂದರ್ಭ

    2010 ರ ದಶಕದಿಂದ, ತರಬೇತಿ ಡೇಟಾಸೆಟ್‌ಗಳನ್ನು ಸೂಕ್ತವಲ್ಲದ ವಿಷಯದೊಂದಿಗೆ ಅಥವಾ ಅನೈತಿಕವಾಗಿ ಸಂಗ್ರಹಿಸಿದ್ದಕ್ಕಾಗಿ ಸಂಶೋಧನಾ ತಂಡಗಳನ್ನು ಪರಿಶೀಲಿಸಲಾಗಿದೆ. ಉದಾಹರಣೆಗೆ, 2016 ರಲ್ಲಿ, Microsoft ನ MS-Celeb-1M ಡೇಟಾಬೇಸ್ 10 ವಿವಿಧ ಪ್ರಸಿದ್ಧ ವ್ಯಕ್ತಿಗಳ 100,000 ಮಿಲಿಯನ್ ಚಿತ್ರಗಳನ್ನು ಒಳಗೊಂಡಿದೆ. ಆದಾಗ್ಯೂ, ಹೆಚ್ಚಿನ ಪರಿಶೀಲನೆಯ ನಂತರ, ಪ್ರತಿನಿಧಿಗಳು ಅನೇಕ ಫೋಟೋಗಳನ್ನು ಮಾಲೀಕರ ಒಪ್ಪಿಗೆ ಅಥವಾ ಜ್ಞಾನವಿಲ್ಲದೆ ವಿವಿಧ ವೆಬ್‌ಸೈಟ್‌ಗಳಿಂದ ಎಳೆಯಲಾದ ಸಾಮಾನ್ಯ ಜನರ ಎಂದು ಕಂಡುಹಿಡಿದರು.

    ಈ ಅರಿವಿನ ಹೊರತಾಗಿಯೂ, ಡೇಟಾಸೆಟ್ ಅನ್ನು ಫೇಸ್‌ಬುಕ್ ಮತ್ತು ಸೆನ್ಸ್‌ಟೈಮ್‌ನಂತಹ ಪ್ರಮುಖ ಕಂಪನಿಗಳು ಬಳಸುವುದನ್ನು ಮುಂದುವರೆಸಿದವು, ರಾಜ್ಯ ಪೋಲೀಸ್‌ಗೆ ಲಿಂಕ್‌ಗಳನ್ನು ಹೊಂದಿರುವ ಚೀನಾದ ಮುಖ ಗುರುತಿಸುವಿಕೆ ಕಂಪನಿ. ಅದೇ ರೀತಿ, ಡ್ಯೂಕ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದ ಕ್ಯಾಂಪಸ್‌ನಲ್ಲಿ (ಡ್ಯೂಕ್‌ಎಂಟಿಎಂಸಿ) ನಡೆಯುತ್ತಿರುವ ಜನರ ಚಿತ್ರಗಳನ್ನು ಒಳಗೊಂಡಿರುವ ಡೇಟಾಸೆಟ್ ಸಹ ಒಪ್ಪಿಗೆಯನ್ನು ಸಂಗ್ರಹಿಸಲಿಲ್ಲ. ಅಂತಿಮವಾಗಿ, ಎರಡೂ ಡೇಟಾಸೆಟ್‌ಗಳನ್ನು ತೆಗೆದುಹಾಕಲಾಯಿತು. 

    ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾದ ಹಾನಿಕಾರಕ ಪರಿಣಾಮಗಳನ್ನು ಹೈಲೈಟ್ ಮಾಡಲು, ಮ್ಯಾಸಚೂಸೆಟ್ಸ್ ಇನ್‌ಸ್ಟಿಟ್ಯೂಟ್ ಆಫ್ ಟೆಕ್ನಾಲಜಿ (MIT) ಯ ಸಂಶೋಧಕರು ನಾರ್ಮನ್ ಎಂಬ AI ಅನ್ನು ರಚಿಸಿದರು, ಅವರು ಗ್ರಾಫಿಕ್ ಹಿಂಸಾಚಾರವನ್ನು ಹೈಲೈಟ್ ಮಾಡುವ ಸಬ್‌ರೆಡಿಟ್‌ನಿಂದ ಚಿತ್ರ ಶೀರ್ಷಿಕೆಯನ್ನು ನಿರ್ವಹಿಸಲು ಕಲಿಸಿದರು. ತಂಡವು ನಂತರ ಸಾಂಪ್ರದಾಯಿಕ ಡೇಟಾವನ್ನು ಬಳಸಿಕೊಂಡು ತರಬೇತಿ ಪಡೆದ ನರಮಂಡಲದ ವಿರುದ್ಧ ನಾರ್ಮನ್ ಅನ್ನು ಇರಿಸಿತು. ಸಂಶೋಧಕರು ಎರಡೂ ವ್ಯವಸ್ಥೆಗಳನ್ನು ರೋರ್‌ಶಾಚ್ ಇಂಕ್‌ಬ್ಲಾಟ್‌ಗಳೊಂದಿಗೆ ಪೂರೈಸಿದರು ಮತ್ತು ಅವರು ನೋಡಿದ್ದನ್ನು ವಿವರಿಸಲು AI ಗಳನ್ನು ಕೇಳಿದರು. ಫಲಿತಾಂಶಗಳು ಬೆರಗುಗೊಳಿಸುತ್ತದೆ: ಅಲ್ಲಿ ಸ್ಟ್ಯಾಂಡರ್ಡ್ ನ್ಯೂರಲ್ ನೆಟ್‌ವರ್ಕ್ "ಬೇಸ್‌ಬಾಲ್ ಗ್ಲೋವ್‌ನ ಕಪ್ಪು ಮತ್ತು ಬಿಳಿ ಫೋಟೋ" ಅನ್ನು ನೋಡಿದೆ, ನಾರ್ಮನ್ "ಹಗಲು ಹೊತ್ತಿನಲ್ಲಿ ಮೆಷಿನ್ ಗನ್‌ನಿಂದ ಕೊಲೆಯಾದ ವ್ಯಕ್ತಿ" ಎಂದು ಗಮನಿಸಿದರು. ಪ್ರಯೋಗವು AI ಸ್ವಯಂಚಾಲಿತವಾಗಿ ಪಕ್ಷಪಾತವನ್ನು ಹೊಂದಿಲ್ಲ ಎಂದು ತೋರಿಸಿದೆ, ಆದರೆ ಆ ಡೇಟಾ ಇನ್‌ಪುಟ್ ವಿಧಾನಗಳು ಮತ್ತು ಅವುಗಳ ರಚನೆಕಾರರ ಉದ್ದೇಶಗಳು AI ನ ನಡವಳಿಕೆಯನ್ನು ಗಮನಾರ್ಹವಾಗಿ ಪರಿಣಾಮ ಬೀರಬಹುದು.

    ಅಡ್ಡಿಪಡಿಸುವ ಪರಿಣಾಮ

    2021 ರಲ್ಲಿ, AI ಗಾಗಿ ಸಂಶೋಧನಾ ಸಂಸ್ಥೆ ಅಲೆನ್ ಇನ್ಸ್ಟಿಟ್ಯೂಟ್ Ask Delphi ಅನ್ನು ರಚಿಸಿತು, ಇದು ML ಸಾಫ್ಟ್‌ವೇರ್ ಯಾವುದೇ ನೈತಿಕ ಪ್ರಶ್ನೆಗೆ ಉತ್ತರಗಳಿಗಾಗಿ ಕ್ರಮಾವಳಿಯನ್ನು ಉತ್ಪಾದಿಸುತ್ತದೆ. ಯೋಜನೆಯ ಹಿಂದಿನ ಸಂಶೋಧಕರು AI ಕ್ರಮೇಣ ಹೆಚ್ಚು ಶಕ್ತಿಯುತ ಮತ್ತು ಪರಿಚಿತವಾಗುತ್ತಿದೆ ಎಂದು ಹೇಳಿದ್ದಾರೆ, ಆದ್ದರಿಂದ ವಿಜ್ಞಾನಿಗಳು ಈ ML ಸಿಸ್ಟಮ್ಸ್ ನೀತಿಗಳನ್ನು ಕಲಿಸಬೇಕಾಗಿದೆ. ಯುನಿಕಾರ್ನ್ ML ಮಾದರಿಯು ಡೆಲ್ಫಿಯ ಅಡಿಪಾಯವಾಗಿದೆ. ಪಠ್ಯ ಸ್ಟ್ರಿಂಗ್‌ಗೆ ಹೆಚ್ಚು ಸಂಭವನೀಯ ಅಂತ್ಯವನ್ನು ಆಯ್ಕೆ ಮಾಡುವಂತಹ "ಸಾಮಾನ್ಯ ಜ್ಞಾನ" ತಾರ್ಕಿಕತೆಯನ್ನು ಕೈಗೊಳ್ಳಲು ಇದನ್ನು ರೂಪಿಸಲಾಗಿದೆ. 

    ಇದಲ್ಲದೆ, ಸಂಶೋಧಕರು 'ಕಾಮನ್ಸೆನ್ಸ್ ನಾರ್ಮ್ ಬ್ಯಾಂಕ್.' ಈ ಬ್ಯಾಂಕ್ ರೆಡ್ಡಿಟ್‌ನಂತಹ ಸ್ಥಳಗಳಿಂದ ಜನರ ನೈತಿಕ ಮೌಲ್ಯಮಾಪನಗಳ 1.7 ಮಿಲಿಯನ್ ಉದಾಹರಣೆಗಳನ್ನು ಒಳಗೊಂಡಿದೆ. ಪರಿಣಾಮವಾಗಿ, ಡೆಲ್ಫಿಯ ಉತ್ಪಾದನೆಯು ಮಿಶ್ರ ಚೀಲವಾಗಿತ್ತು. ಡೆಲ್ಫಿ ಕೆಲವು ಪ್ರಶ್ನೆಗಳಿಗೆ ಸಮಂಜಸವಾಗಿ ಉತ್ತರಿಸಿದ್ದಾರೆ (ಉದಾ., ಪುರುಷರು ಮತ್ತು ಮಹಿಳೆಯರ ನಡುವಿನ ಸಮಾನತೆ), ಆದರೆ, ಕೆಲವು ವಿಷಯಗಳಲ್ಲಿ, ಡೆಲ್ಫಿ ಸಂಪೂರ್ಣವಾಗಿ ಆಕ್ರಮಣಕಾರಿಯಾಗಿದೆ (ಉದಾಹರಣೆಗೆ, ನರಮೇಧವು ಜನರನ್ನು ಸಂತೋಷಪಡಿಸುವವರೆಗೆ ಸ್ವೀಕಾರಾರ್ಹವಾಗಿದೆ).

    ಆದಾಗ್ಯೂ, Delphi AI ತನ್ನ ಅನುಭವಗಳಿಂದ ಕಲಿಯುತ್ತಿದೆ ಮತ್ತು ಪ್ರತಿಕ್ರಿಯೆಯ ಆಧಾರದ ಮೇಲೆ ಅದರ ಉತ್ತರಗಳನ್ನು ನವೀಕರಿಸುತ್ತಿರುವಂತೆ ತೋರುತ್ತಿದೆ. ಕೆಲವು ತಜ್ಞರು ಸಂಶೋಧನೆಯ ಸಾರ್ವಜನಿಕ ಮತ್ತು ಮುಕ್ತ ಬಳಕೆಯಿಂದ ತೊಂದರೆಗೀಡಾಗಿದ್ದಾರೆ, ಮಾದರಿಯು ಪ್ರಗತಿಯಲ್ಲಿದೆ ಮತ್ತು ಅನಿಯಮಿತ ಉತ್ತರಗಳಿಗೆ ಗುರಿಯಾಗುತ್ತದೆ ಎಂದು ಪರಿಗಣಿಸುತ್ತಾರೆ. ಆಸ್ಕ್ ಡೆಲ್ಫಿ ಪ್ರಾರಂಭವಾದಾಗ, ಲಿಂಗ, ಕಾರ್ಮಿಕ ಮತ್ತು ಕಂಪ್ಯೂಟಿಂಗ್ ಇತಿಹಾಸದಲ್ಲಿ ಪರಿಣತಿ ಹೊಂದಿರುವ ಇಲಿನಾಯ್ಸ್ ಟೆಕ್‌ನ ಇತಿಹಾಸದ ಪ್ರಾಧ್ಯಾಪಕ ಮಾರ್ ಹಿಕ್ಸ್, ಇದನ್ನು ಬಳಸಲು ಜನರನ್ನು ಆಹ್ವಾನಿಸುವುದು ಸಂಶೋಧಕರ ನಿರ್ಲಕ್ಷ್ಯ ಎಂದು ಹೇಳಿದರು, ಡೆಲ್ಫಿ ತಕ್ಷಣವೇ ಅತ್ಯಂತ ಅನೈತಿಕ ಉತ್ತರಗಳನ್ನು ನೀಡಿತು ಮತ್ತು ಕೆಲವು ಸಂಪೂರ್ಣ ಅಸಂಬದ್ಧ. 

    2023 ರಲ್ಲಿ ಉಳಿದ ಪ್ರಪಂಚ AI ಇಮೇಜ್ ಜನರೇಟರ್‌ಗಳಲ್ಲಿ ಪಕ್ಷಪಾತದ ಕುರಿತು ಅಧ್ಯಯನವನ್ನು ನಡೆಸಿತು. ಮಿಡ್‌ಜರ್ನಿಯನ್ನು ಬಳಸಿಕೊಂಡು, ರಚಿಸಲಾದ ಚಿತ್ರಗಳು ಅಸ್ತಿತ್ವದಲ್ಲಿರುವ ಸ್ಟೀರಿಯೊಟೈಪ್‌ಗಳನ್ನು ದೃಢೀಕರಿಸುತ್ತವೆ ಎಂದು ಸಂಶೋಧಕರು ಕಂಡುಹಿಡಿದರು. ಜೊತೆಗೆ, OpenAI ತನ್ನ DALL-E 2 ಇಮೇಜ್ ಜನರೇಷನ್ ಮಾದರಿಗಾಗಿ ತರಬೇತಿ ಡೇಟಾಗೆ ಫಿಲ್ಟರ್‌ಗಳನ್ನು ಅನ್ವಯಿಸಿದಾಗ, ಇದು ಉದ್ದೇಶಪೂರ್ವಕವಾಗಿ ಲಿಂಗಕ್ಕೆ ಸಂಬಂಧಿಸಿದ ಪಕ್ಷಪಾತಗಳನ್ನು ತೀವ್ರಗೊಳಿಸಿತು.

    ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾದ ಪರಿಣಾಮಗಳು

    ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾದ ವ್ಯಾಪಕ ಪರಿಣಾಮಗಳು ಒಳಗೊಂಡಿರಬಹುದು: 

    • ಸಂಶೋಧನಾ ಯೋಜನೆಗಳು, ಸೇವೆಗಳು ಮತ್ತು ಕಾರ್ಯಕ್ರಮದ ಅಭಿವೃದ್ಧಿಯಲ್ಲಿ ಬಲವರ್ಧಿತ ಪಕ್ಷಪಾತಗಳು. ಕಾನೂನು ಜಾರಿ ಮತ್ತು ಬ್ಯಾಂಕಿಂಗ್ ಸಂಸ್ಥೆಗಳಲ್ಲಿ (ಉದಾಹರಣೆಗೆ, ಅಲ್ಪಸಂಖ್ಯಾತ ಗುಂಪುಗಳನ್ನು ಪ್ರತಿಕೂಲವಾಗಿ ಗುರಿಯಾಗಿಸುವುದು) ಬಳಸಿದರೆ ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾವನ್ನು ವಿಶೇಷವಾಗಿ ಸಂಬಂಧಿಸಿದೆ.
    • ತರಬೇತಿ ಡೇಟಾದ ಬೆಳವಣಿಗೆ ಮತ್ತು ವಿಂಗಡಣೆಯಲ್ಲಿ ಹೆಚ್ಚಿದ ಹೂಡಿಕೆ ಮತ್ತು ಅಭಿವೃದ್ಧಿ. 
    • ವಿವಿಧ ವಾಣಿಜ್ಯ ಉಪಕ್ರಮಗಳಿಗಾಗಿ ನಿಗಮಗಳು ಹೇಗೆ ಅಭಿವೃದ್ಧಿ, ಮಾರಾಟ ಮತ್ತು ತರಬೇತಿ ಡೇಟಾವನ್ನು ಬಳಸುತ್ತವೆ ಎಂಬುದನ್ನು ಮಿತಿಗೊಳಿಸಲು ಹೆಚ್ಚಿನ ಸರ್ಕಾರಗಳು ನಿಯಮಾವಳಿಗಳನ್ನು ಹೆಚ್ಚಿಸುತ್ತವೆ.
    • AI ವ್ಯವಸ್ಥೆಗಳಿಂದ ನಡೆಸಲ್ಪಡುವ ಯೋಜನೆಗಳು ನೈತಿಕ ಮಾರ್ಗಸೂಚಿಗಳನ್ನು ಅನುಸರಿಸುತ್ತವೆ ಎಂಬುದನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು ನೀತಿಶಾಸ್ತ್ರ ವಿಭಾಗಗಳನ್ನು ಸ್ಥಾಪಿಸುವ ಹೆಚ್ಚಿನ ವ್ಯವಹಾರಗಳು.
    • ಆರೋಗ್ಯ ರಕ್ಷಣೆಯಲ್ಲಿ AI ಬಳಕೆಯ ಮೇಲೆ ವರ್ಧಿತ ಪರಿಶೀಲನೆಯು ಕಟ್ಟುನಿಟ್ಟಾದ ಡೇಟಾ ಆಡಳಿತಕ್ಕೆ ಕಾರಣವಾಗುತ್ತದೆ, ರೋಗಿಯ ಗೌಪ್ಯತೆ ಮತ್ತು ನೈತಿಕ AI ಅಪ್ಲಿಕೇಶನ್ ಅನ್ನು ಖಾತ್ರಿಪಡಿಸುತ್ತದೆ.
    • AI ಸಾಕ್ಷರತೆಯನ್ನು ಉತ್ತೇಜಿಸಲು ಸಾರ್ವಜನಿಕ ಮತ್ತು ಖಾಸಗಿ ವಲಯದ ಸಹಯೋಗವನ್ನು ಹೆಚ್ಚಿಸಿ, AI ಪ್ರಾಬಲ್ಯದ ಭವಿಷ್ಯಕ್ಕಾಗಿ ಕೌಶಲ್ಯಗಳೊಂದಿಗೆ ಉದ್ಯೋಗಿಗಳನ್ನು ಸಜ್ಜುಗೊಳಿಸುವುದು.
    • AI ಪಾರದರ್ಶಕತೆಯ ಪರಿಕರಗಳ ಬೇಡಿಕೆಯಲ್ಲಿ ಏರಿಕೆ, ಗ್ರಾಹಕರ ತಿಳುವಳಿಕೆ ಮತ್ತು ನಂಬಿಕೆಗಾಗಿ AI ವ್ಯವಸ್ಥೆಗಳಲ್ಲಿ ವಿವರಣೆಯನ್ನು ಆದ್ಯತೆ ನೀಡಲು ಪ್ರಮುಖ ಕಂಪನಿಗಳು.

    ಪರಿಗಣಿಸಬೇಕಾದ ಪ್ರಶ್ನೆಗಳು

    • ಸಮಸ್ಯಾತ್ಮಕ ತರಬೇತಿ ಡೇಟಾವನ್ನು ಬಳಸುವುದನ್ನು ಸಂಸ್ಥೆಗಳು ಹೇಗೆ ತಪ್ಪಿಸಬಹುದು?
    • ಅನೈತಿಕ ತರಬೇತಿ ಡೇಟಾದ ಇತರ ಸಂಭಾವ್ಯ ಪರಿಣಾಮಗಳು ಯಾವುವು?