ਸਮੱਸਿਆ ਵਾਲਾ ਸਿਖਲਾਈ ਡੇਟਾ: ਜਦੋਂ AI ਨੂੰ ਪੱਖਪਾਤੀ ਡੇਟਾ ਸਿਖਾਇਆ ਜਾਂਦਾ ਹੈ

ਚਿੱਤਰ ਕ੍ਰੈਡਿਟ:
ਚਿੱਤਰ ਕ੍ਰੈਡਿਟ
iStock

ਸਮੱਸਿਆ ਵਾਲਾ ਸਿਖਲਾਈ ਡੇਟਾ: ਜਦੋਂ AI ਨੂੰ ਪੱਖਪਾਤੀ ਡੇਟਾ ਸਿਖਾਇਆ ਜਾਂਦਾ ਹੈ

ਸਮੱਸਿਆ ਵਾਲਾ ਸਿਖਲਾਈ ਡੇਟਾ: ਜਦੋਂ AI ਨੂੰ ਪੱਖਪਾਤੀ ਡੇਟਾ ਸਿਖਾਇਆ ਜਾਂਦਾ ਹੈ

ਉਪਸਿਰਲੇਖ ਲਿਖਤ
ਨਕਲੀ ਖੁਫੀਆ ਪ੍ਰਣਾਲੀਆਂ ਨੂੰ ਕਈ ਵਾਰ ਵਿਅਕਤੀਗਤ ਡੇਟਾ ਦੇ ਨਾਲ ਪੇਸ਼ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਪ੍ਰਭਾਵਤ ਕਰ ਸਕਦਾ ਹੈ ਕਿ ਇਹ ਕਿਵੇਂ ਕੰਮ ਕਰਦਾ ਹੈ ਅਤੇ ਫੈਸਲੇ ਲੈਂਦਾ ਹੈ।
    • ਲੇਖਕ ਬਾਰੇ:
    • ਲੇਖਕ ਦਾ ਨਾਮ
      Quantumrun ਦੂਰਦ੍ਰਿਸ਼ਟੀ
    • ਅਕਤੂਬਰ 14, 2022

    ਇਨਸਾਈਟ ਸੰਖੇਪ

    ਅਸੀਂ ਉਹ ਹਾਂ ਜੋ ਅਸੀਂ ਸਿੱਖਦੇ ਹਾਂ ਅਤੇ ਅੰਦਰੂਨੀ ਬਣਾਉਂਦੇ ਹਾਂ; ਇਹ ਹੁਕਮ ਨਕਲੀ ਬੁੱਧੀ (AI) 'ਤੇ ਵੀ ਲਾਗੂ ਹੁੰਦਾ ਹੈ। ਮਸ਼ੀਨ ਲਰਨਿੰਗ (ML) ਮਾਡਲ ਅਧੂਰੇ, ਪੱਖਪਾਤੀ, ਅਤੇ ਅਨੈਤਿਕ ਡੇਟਾ ਨਾਲ ਭਰੇ ਹੋਏ ਅੰਤ ਵਿੱਚ ਸਮੱਸਿਆ ਵਾਲੇ ਫੈਸਲੇ ਅਤੇ ਸੁਝਾਅ ਦੇਣਗੇ। ਜੇਕਰ ਖੋਜਕਰਤਾ ਸਾਵਧਾਨ ਨਹੀਂ ਹਨ ਤਾਂ ਇਹ ਸ਼ਕਤੀਸ਼ਾਲੀ ਐਲਗੋਰਿਦਮ ਉਪਭੋਗਤਾਵਾਂ ਦੀ ਨੈਤਿਕਤਾ ਅਤੇ ਧਾਰਨਾਵਾਂ ਨੂੰ ਪ੍ਰਭਾਵਤ ਕਰ ਸਕਦੇ ਹਨ।

    ਸਮੱਸਿਆ ਵਾਲੇ ਸਿਖਲਾਈ ਡੇਟਾ ਸੰਦਰਭ

    2010 ਦੇ ਦਹਾਕੇ ਤੋਂ, ਖੋਜ ਟੀਮਾਂ ਨੂੰ ਅਨੁਚਿਤ ਸਮੱਗਰੀ ਵਾਲੇ ਸਿਖਲਾਈ ਡੇਟਾਸੈਟਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਜਾਂ ਅਨੈਤਿਕ ਤੌਰ 'ਤੇ ਇਕੱਠੇ ਕੀਤੇ ਜਾਣ ਲਈ ਜਾਂਚ ਕੀਤੀ ਗਈ ਹੈ। ਉਦਾਹਰਨ ਲਈ, 2016 ਵਿੱਚ, Microsoft ਦੇ MS-Celeb-1M ਡੇਟਾਬੇਸ ਵਿੱਚ 10 ਵੱਖ-ਵੱਖ ਮਸ਼ਹੂਰ ਹਸਤੀਆਂ ਦੀਆਂ 100,000 ਮਿਲੀਅਨ ਤਸਵੀਰਾਂ ਸ਼ਾਮਲ ਸਨ। ਹਾਲਾਂਕਿ, ਹੋਰ ਮੁਆਇਨਾ ਕਰਨ 'ਤੇ, ਪੱਤਰਕਾਰਾਂ ਨੇ ਪਾਇਆ ਕਿ ਬਹੁਤ ਸਾਰੀਆਂ ਫੋਟੋਆਂ ਆਮ ਲੋਕਾਂ ਦੀਆਂ ਸਨ ਜੋ ਮਾਲਕ ਦੀ ਸਹਿਮਤੀ ਜਾਂ ਜਾਣਕਾਰੀ ਤੋਂ ਬਿਨਾਂ ਵੱਖ-ਵੱਖ ਵੈਬਸਾਈਟਾਂ ਤੋਂ ਖਿੱਚੀਆਂ ਗਈਆਂ ਸਨ।

    ਇਸ ਅਹਿਸਾਸ ਦੇ ਬਾਵਜੂਦ, ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਜਿਵੇਂ ਕਿ Facebook ਅਤੇ SenseTime, ਇੱਕ ਚੀਨੀ ਚਿਹਰੇ ਦੀ ਪਛਾਣ ਕਰਨ ਵਾਲੀ ਕੰਪਨੀ, ਰਾਜ ਪੁਲਿਸ ਨਾਲ ਸਬੰਧ ਰੱਖਣ ਵਾਲੀ ਕੰਪਨੀ ਦੁਆਰਾ ਡੇਟਾਸੈਟ ਦੀ ਵਰਤੋਂ ਜਾਰੀ ਰੱਖੀ ਗਈ। ਇਸੇ ਤਰ੍ਹਾਂ, ਡਿਊਕ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਕੈਂਪਸ (DukeMTMC) ਵਿੱਚ ਸੈਰ ਕਰਨ ਵਾਲੇ ਲੋਕਾਂ ਦੀਆਂ ਤਸਵੀਰਾਂ ਵਾਲੇ ਡੇਟਾਸੈਟ ਨੇ ਵੀ ਸਹਿਮਤੀ ਨਹੀਂ ਲਈ। ਆਖਰਕਾਰ, ਦੋਵੇਂ ਡੇਟਾਸੈਟਾਂ ਨੂੰ ਹਟਾ ਦਿੱਤਾ ਗਿਆ। 

    ਸਮੱਸਿਆ ਵਾਲੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਨੁਕਸਾਨਦੇਹ ਪ੍ਰਭਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਨ ਲਈ, ਮੈਸੇਚਿਉਸੇਟਸ ਇੰਸਟੀਚਿਊਟ ਆਫ਼ ਟੈਕਨਾਲੋਜੀ (ਐਮਆਈਟੀ) ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਨਾਰਮਨ ਨਾਮਕ ਇੱਕ ਏਆਈ ਬਣਾਇਆ ਜਿਸ ਨੂੰ ਉਹਨਾਂ ਨੇ ਗ੍ਰਾਫਿਕ ਹਿੰਸਾ ਨੂੰ ਉਜਾਗਰ ਕਰਨ ਵਾਲੇ ਸਬਰੇਡਿਟ ਤੋਂ ਚਿੱਤਰ ਕੈਪਸ਼ਨਿੰਗ ਕਰਨਾ ਸਿਖਾਇਆ। ਟੀਮ ਨੇ ਫਿਰ ਰਵਾਇਤੀ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ ਇੱਕ ਨਿਊਰਲ ਨੈਟਵਰਕ ਦੇ ਵਿਰੁੱਧ ਨਾਰਮਨ ਨੂੰ ਰੱਖਿਆ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਰੋਰਸ਼ਚ ਸਿਆਹੀ ਬਲੌਟਸ ਦੇ ਨਾਲ ਦੋਵੇਂ ਪ੍ਰਣਾਲੀਆਂ ਦੀ ਸਪਲਾਈ ਕੀਤੀ ਅਤੇ ਏਆਈਜ਼ ਨੂੰ ਕਿਹਾ ਕਿ ਉਹਨਾਂ ਨੇ ਕੀ ਦੇਖਿਆ ਹੈ। ਨਤੀਜੇ ਹੈਰਾਨਕੁੰਨ ਸਨ: ਜਿੱਥੇ ਸਟੈਂਡਰਡ ਨਿਊਰਲ ਨੈਟਵਰਕ ਨੇ "ਬੇਸਬਾਲ ਦਸਤਾਨੇ ਦੀ ਇੱਕ ਕਾਲਾ ਅਤੇ ਚਿੱਟੀ ਫੋਟੋ" ਦੇਖੀ, ਨਾਰਮਨ ਨੇ ਦੇਖਿਆ "ਇੱਕ ਵਿਅਕਤੀ ਦਿਨ ਦੇ ਰੋਸ਼ਨੀ ਵਿੱਚ ਮਸ਼ੀਨ ਗਨ ਦੁਆਰਾ ਕਤਲ ਕੀਤਾ ਗਿਆ ਸੀ।" ਪ੍ਰਯੋਗ ਨੇ ਦਿਖਾਇਆ ਹੈ ਕਿ AI ਆਪਣੇ ਆਪ ਪੱਖਪਾਤੀ ਨਹੀਂ ਹੈ, ਪਰ ਉਹ ਡੇਟਾ ਇਨਪੁਟ ਵਿਧੀਆਂ ਅਤੇ ਉਹਨਾਂ ਦੇ ਸਿਰਜਣਹਾਰਾਂ ਦੇ ਮਨੋਰਥ ਇੱਕ AI ਦੇ ਵਿਵਹਾਰ ਨੂੰ ਮਹੱਤਵਪੂਰਣ ਰੂਪ ਵਿੱਚ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੇ ਹਨ।

    ਵਿਘਨਕਾਰੀ ਪ੍ਰਭਾਵ

    2021 ਵਿੱਚ, AI ਲਈ ਖੋਜ ਸੰਸਥਾ ਐਲਨ ਇੰਸਟੀਚਿਊਟ ਨੇ Ask Delphi ਬਣਾਇਆ, ਇੱਕ ML ਸੌਫਟਵੇਅਰ ਜੋ ਐਲਗੋਰਿਦਮਿਕ ਤੌਰ 'ਤੇ ਕਿਸੇ ਵੀ ਨੈਤਿਕ ਸਵਾਲ ਦੇ ਜਵਾਬਾਂ ਲਈ ਜਵਾਬ ਤਿਆਰ ਕਰਦਾ ਹੈ। ਪ੍ਰੋਜੈਕਟ ਦੇ ਪਿੱਛੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਕਿਹਾ ਕਿ AI ਹੌਲੀ-ਹੌਲੀ ਵਧੇਰੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਅਤੇ ਜਾਣੂ ਹੋ ਰਿਹਾ ਹੈ, ਇਸ ਲਈ ਵਿਗਿਆਨੀਆਂ ਨੂੰ ਇਹਨਾਂ ML ਪ੍ਰਣਾਲੀਆਂ ਨੂੰ ਨੈਤਿਕਤਾ ਸਿਖਾਉਣ ਦੀ ਲੋੜ ਹੈ। ਯੂਨੀਕੋਰਨ ML ਮਾਡਲ ਡੇਲਫੀ ਦੀ ਨੀਂਹ ਹੈ। ਇਹ "ਆਮ ਸਮਝ" ਤਰਕ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ, ਜਿਵੇਂ ਕਿ ਟੈਕਸਟ ਸਤਰ ਦੇ ਸਭ ਤੋਂ ਸੰਭਾਵਿਤ ਅੰਤ ਨੂੰ ਚੁਣਨਾ। 

    ਇਸ ਤੋਂ ਇਲਾਵਾ, ਖੋਜਕਰਤਾਵਾਂ ਨੇ 'ਕਾਮਨਸੈਂਸ ਨਾਰਮ ਬੈਂਕ' ਦੀ ਵਰਤੋਂ ਕੀਤੀ। ਇਸ ਬੈਂਕ ਵਿੱਚ Reddit ਵਰਗੀਆਂ ਥਾਵਾਂ ਤੋਂ ਲੋਕਾਂ ਦੇ ਨੈਤਿਕ ਮੁਲਾਂਕਣਾਂ ਦੀਆਂ 1.7 ਮਿਲੀਅਨ ਉਦਾਹਰਣਾਂ ਸ਼ਾਮਲ ਹਨ। ਨਤੀਜੇ ਵਜੋਂ, ਡੇਲਫੀ ਦਾ ਆਉਟਪੁੱਟ ਇੱਕ ਮਿਸ਼ਰਤ ਬੈਗ ਸੀ। ਡੇਲਫੀ ਨੇ ਕੁਝ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਵਾਜਬ ਤਰੀਕੇ ਨਾਲ ਦਿੱਤੇ (ਉਦਾਹਰਨ ਲਈ, ਮਰਦਾਂ ਅਤੇ ਔਰਤਾਂ ਵਿਚਕਾਰ ਸਮਾਨਤਾ), ਜਦੋਂ ਕਿ, ਕੁਝ ਵਿਸ਼ਿਆਂ 'ਤੇ, ਡੇਲਫੀ ਬਿਲਕੁਲ ਅਪਮਾਨਜਨਕ ਸੀ (ਉਦਾਹਰਨ ਲਈ, ਨਸਲਕੁਸ਼ੀ ਉਦੋਂ ਤੱਕ ਸਵੀਕਾਰਯੋਗ ਹੈ ਜਦੋਂ ਤੱਕ ਇਹ ਲੋਕਾਂ ਨੂੰ ਖੁਸ਼ ਕਰਦੀ ਹੈ)।

    ਹਾਲਾਂਕਿ, ਡੇਲਫੀ ਏਆਈ ਆਪਣੇ ਤਜ਼ਰਬਿਆਂ ਤੋਂ ਸਿੱਖ ਰਿਹਾ ਹੈ ਅਤੇ ਫੀਡਬੈਕ ਦੇ ਅਧਾਰ 'ਤੇ ਆਪਣੇ ਜਵਾਬਾਂ ਨੂੰ ਅਪਡੇਟ ਕਰਦਾ ਜਾਪਦਾ ਹੈ। ਕੁਝ ਮਾਹਰ ਖੋਜ ਦੀ ਜਨਤਕ ਅਤੇ ਖੁੱਲ੍ਹੀ ਵਰਤੋਂ ਤੋਂ ਪਰੇਸ਼ਾਨ ਹਨ, ਇਹ ਮੰਨਦੇ ਹੋਏ ਕਿ ਮਾਡਲ ਪ੍ਰਗਤੀ ਵਿੱਚ ਹੈ ਅਤੇ ਅਨਿਯਮਿਤ ਜਵਾਬਾਂ ਦੀ ਸੰਭਾਵਨਾ ਹੈ। ਜਦੋਂ ਆਸਕ ਡੇਲਫੀ ਨੇ ਡੈਬਿਊ ਕੀਤਾ, ਤਾਂ ਮਾਰ ਹਿਕਸ, ਇਲੀਨੋਇਸ ਟੈਕ ਦੇ ਇਤਿਹਾਸ ਦੇ ਪ੍ਰੋਫੈਸਰ, ਜੋ ਕਿ ਲਿੰਗ, ਲੇਬਰ, ਅਤੇ ਕੰਪਿਊਟਿੰਗ ਦੇ ਇਤਿਹਾਸ ਵਿੱਚ ਮਾਹਰ ਹਨ, ਨੇ ਕਿਹਾ ਕਿ ਲੋਕਾਂ ਨੂੰ ਇਸਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ ਸੱਦਾ ਦੇਣਾ ਖੋਜਕਰਤਾਵਾਂ ਦੀ ਲਾਪਰਵਾਹੀ ਸੀ, ਡੈਲਫੀ ਨੇ ਤੁਰੰਤ ਬਹੁਤ ਅਨੈਤਿਕ ਜਵਾਬ ਦਿੱਤੇ ਅਤੇ ਕੁਝ ਪੂਰੀ ਬਕਵਾਸ. 

    2023 ਵਿੱਚ, ਰੈਸਟ ਵਰਲਡ ਏਆਈ ਚਿੱਤਰ ਜਨਰੇਟਰਾਂ ਵਿੱਚ ਪੱਖਪਾਤ 'ਤੇ ਇੱਕ ਅਧਿਐਨ ਕੀਤਾ। ਮਿਡਜਰਨੀ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ, ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਖੋਜ ਕੀਤੀ ਕਿ ਤਿਆਰ ਕੀਤੀਆਂ ਤਸਵੀਰਾਂ ਮੌਜੂਦਾ ਰੂੜ੍ਹੀਵਾਦਾਂ ਦੀ ਪੁਸ਼ਟੀ ਕਰਦੀਆਂ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਜਦੋਂ ਓਪਨਏਆਈ ਨੇ ਆਪਣੇ DALL-E 2 ਚਿੱਤਰ ਜਨਰੇਸ਼ਨ ਮਾਡਲ ਲਈ ਸਿਖਲਾਈ ਡੇਟਾ ਲਈ ਫਿਲਟਰ ਲਾਗੂ ਕੀਤੇ, ਤਾਂ ਇਹ ਅਣਜਾਣੇ ਵਿੱਚ ਲਿੰਗ ਨਾਲ ਸਬੰਧਤ ਪੱਖਪਾਤ ਨੂੰ ਤੇਜ਼ ਕਰਦਾ ਹੈ।

    ਸਮੱਸਿਆ ਵਾਲੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਪ੍ਰਭਾਵ

    ਸਮੱਸਿਆ ਵਾਲੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਵਿਆਪਕ ਪ੍ਰਭਾਵਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋ ਸਕਦੇ ਹਨ: 

    • ਖੋਜ ਪ੍ਰੋਜੈਕਟਾਂ, ਸੇਵਾਵਾਂ ਅਤੇ ਪ੍ਰੋਗਰਾਮ ਦੇ ਵਿਕਾਸ ਵਿੱਚ ਪੱਖਪਾਤ ਨੂੰ ਮਜ਼ਬੂਤ ​​ਕੀਤਾ ਗਿਆ। ਸਮੱਸਿਆ ਵਾਲੇ ਸਿਖਲਾਈ ਡੇਟਾ ਵਿਸ਼ੇਸ਼ ਤੌਰ 'ਤੇ ਇਸ ਬਾਰੇ ਹੈ ਜੇਕਰ ਕਾਨੂੰਨ ਲਾਗੂ ਕਰਨ ਅਤੇ ਬੈਂਕਿੰਗ ਸੰਸਥਾਵਾਂ ਵਿੱਚ ਵਰਤਿਆ ਜਾਂਦਾ ਹੈ (ਉਦਾਹਰਣ ਵਜੋਂ, ਘੱਟ ਗਿਣਤੀ ਸਮੂਹਾਂ ਨੂੰ ਉਲਟਾ ਨਿਸ਼ਾਨਾ ਬਣਾਉਣਾ)।
    • ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਵਾਧੇ ਅਤੇ ਵਰਗੀਕਰਨ ਵਿੱਚ ਨਿਵੇਸ਼ ਅਤੇ ਵਿਕਾਸ ਵਿੱਚ ਵਾਧਾ। 
    • ਹੋਰ ਸਰਕਾਰਾਂ ਵੱਖ-ਵੱਖ ਵਪਾਰਕ ਪਹਿਲਕਦਮੀਆਂ ਲਈ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਦੇ ਵਿਕਾਸ, ਵੇਚਣ ਅਤੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਨੂੰ ਸੀਮਤ ਕਰਨ ਲਈ ਨਿਯਮਾਂ ਨੂੰ ਵਧਾ ਰਹੀਆਂ ਹਨ।
    • ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਕਿ AI ਪ੍ਰਣਾਲੀਆਂ ਦੁਆਰਾ ਸੰਚਾਲਿਤ ਪ੍ਰੋਜੈਕਟ ਨੈਤਿਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਪਾਲਣਾ ਕਰਦੇ ਹਨ, ਨੈਤਿਕਤਾ ਵਿਭਾਗ ਸਥਾਪਤ ਕਰਨ ਵਾਲੇ ਹੋਰ ਕਾਰੋਬਾਰ।
    • ਹੈਲਥਕੇਅਰ ਵਿੱਚ AI ਦੀ ਵਰਤੋਂ 'ਤੇ ਵਧੀ ਹੋਈ ਜਾਂਚ ਜਿਸ ਨਾਲ ਸਖਤ ਡਾਟਾ ਗਵਰਨੈਂਸ ਹੁੰਦਾ ਹੈ, ਮਰੀਜ਼ ਦੀ ਗੋਪਨੀਯਤਾ ਅਤੇ ਨੈਤਿਕ AI ਐਪਲੀਕੇਸ਼ਨ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ।
    • ਏਆਈ ਸਾਖਰਤਾ ਨੂੰ ਉਤਸ਼ਾਹਤ ਕਰਨ ਲਈ ਜਨਤਕ ਅਤੇ ਨਿੱਜੀ ਖੇਤਰ ਦੇ ਸਹਿਯੋਗ ਵਿੱਚ ਵਾਧਾ, ਇੱਕ AI-ਦਬਦਬਾ ਭਵਿੱਖ ਲਈ ਕਰਮਚਾਰੀਆਂ ਨੂੰ ਹੁਨਰਾਂ ਨਾਲ ਲੈਸ ਕਰਨਾ।
    • AI ਪਾਰਦਰਸ਼ਤਾ ਸਾਧਨਾਂ ਦੀ ਮੰਗ ਵਿੱਚ ਵਾਧਾ, ਖਪਤਕਾਰਾਂ ਦੀ ਸਮਝ ਅਤੇ ਵਿਸ਼ਵਾਸ ਲਈ AI ਪ੍ਰਣਾਲੀਆਂ ਵਿੱਚ ਵਿਆਖਿਆਯੋਗਤਾ ਨੂੰ ਤਰਜੀਹ ਦੇਣ ਲਈ ਮੋਹਰੀ ਕੰਪਨੀਆਂ।

    ਵਿਚਾਰ ਕਰਨ ਲਈ ਪ੍ਰਸ਼ਨ

    • ਸੰਸਥਾਵਾਂ ਸਮੱਸਿਆ ਵਾਲੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਨ ਤੋਂ ਕਿਵੇਂ ਬਚ ਸਕਦੀਆਂ ਹਨ?
    • ਅਨੈਤਿਕ ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਹੋਰ ਸੰਭਾਵੀ ਨਤੀਜੇ ਕੀ ਹਨ?