ਅਸੀਂ ਇਹ ਕਿਵੇਂ ਯਕੀਨੀ ਬਣਾਉਂਦੇ ਹਾਂ ਕਿ ਅਸੀਂ AI ਦੀ ਵਰਤੋਂ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਕਰਦੇ ਹਾਂ?
ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਵਿੱਚ ਤਰੱਕੀ ਦਰਸਾਉਂਦੀ ਹੈ ਕਿ ਮਾਡਲ ਸਮਾਜ ਦੇ ਇੱਕ ਵੱਡੇ ਹਿੱਸੇ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਸਕੇਲ ਅਤੇ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੇ ਹਨ।
ਐਲਗੋਰਿਦਮ ਹਰ ਕਿਸੇ ਦੇ ਫ਼ੋਨ 'ਤੇ ਨਿਊਜ਼ਫੀਡ ਨੂੰ ਕੰਟਰੋਲ ਕਰਦੇ ਹਨ। ਸਰਕਾਰਾਂ ਅਤੇ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਡਾਟਾ-ਸੂਚਿਤ ਫੈਸਲੇ ਲੈਣ ਲਈ AI ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਰਹੀਆਂ ਹਨ।
ਜਿਵੇਂ ਕਿ AI ਦੁਨੀਆ ਦੇ ਕੰਮ ਕਰਨ ਦੇ ਤਰੀਕੇ ਵਿੱਚ ਅੱਗੇ ਵਧਦਾ ਜਾਂਦਾ ਹੈ, ਅਸੀਂ ਕਿਵੇਂ ਯਕੀਨੀ ਬਣਾਉਂਦੇ ਹਾਂ ਕਿ AI ਨਿਰਪੱਖ ਢੰਗ ਨਾਲ ਕੰਮ ਕਰ ਰਿਹਾ ਹੈ?
ਇਸ ਲੇਖ ਵਿੱਚ, ਅਸੀਂ AI ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀਆਂ ਨੈਤਿਕ ਚੁਣੌਤੀਆਂ ਨੂੰ ਦੇਖਾਂਗੇ ਅਤੇ ਦੇਖਾਂਗੇ ਕਿ ਅਸੀਂ AI ਦੀ ਜ਼ਿੰਮੇਵਾਰ ਵਰਤੋਂ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਕੀ ਕਰ ਸਕਦੇ ਹਾਂ।
ਨੈਤਿਕ AI ਕੀ ਹੈ?
ਨੈਤਿਕ AI ਨਕਲੀ ਬੁੱਧੀ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ ਨੈਤਿਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਦੇ ਇੱਕ ਨਿਸ਼ਚਿਤ ਸਮੂਹ ਦੀ ਪਾਲਣਾ ਕਰਦਾ ਹੈ।
ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, ਇਹ ਵਿਅਕਤੀਆਂ ਅਤੇ ਸੰਸਥਾਵਾਂ ਲਈ ਏਆਈ ਦੇ ਨਾਲ ਇੱਕ ਜ਼ਿੰਮੇਵਾਰ ਤਰੀਕੇ ਨਾਲ ਕੰਮ ਕਰਨ ਦਾ ਇੱਕ ਤਰੀਕਾ ਹੈ।
ਹਾਲ ਹੀ ਦੇ ਸਾਲਾਂ ਵਿੱਚ, ਦੁਰਵਿਵਹਾਰ ਅਤੇ ਉਲੰਘਣਾ ਦੇ ਸਬੂਤ ਸਾਹਮਣੇ ਆਉਣ ਤੋਂ ਬਾਅਦ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਨੇ ਡੇਟਾ ਗੋਪਨੀਯਤਾ ਕਾਨੂੰਨਾਂ ਨੂੰ ਲਾਗੂ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤਾ ਹੈ। ਇਸੇ ਤਰ੍ਹਾਂ, ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਨੈਤਿਕ AI ਲਈ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਸਿਫ਼ਾਰਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਕਿ AI ਸਮਾਜ 'ਤੇ ਨਕਾਰਾਤਮਕ ਪ੍ਰਭਾਵ ਨਾ ਪਵੇ।
ਉਦਾਹਰਨ ਲਈ, AI ਦੀਆਂ ਕੁਝ ਕਿਸਮਾਂ ਪੱਖਪਾਤੀ ਢੰਗ ਨਾਲ ਕੰਮ ਕਰਦੀਆਂ ਹਨ ਜਾਂ ਪਹਿਲਾਂ ਤੋਂ ਮੌਜੂਦ ਪੱਖਪਾਤਾਂ ਨੂੰ ਕਾਇਮ ਰੱਖਦੀਆਂ ਹਨ। ਆਉ ਇੱਕ ਐਲਗੋਰਿਦਮ 'ਤੇ ਵਿਚਾਰ ਕਰੀਏ ਜੋ ਭਰਤੀ ਕਰਨ ਵਾਲਿਆਂ ਨੂੰ ਹਜ਼ਾਰਾਂ ਰੈਜ਼ਿਊਮੇ ਦੁਆਰਾ ਛਾਂਟਣ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਐਲਗੋਰਿਦਮ ਨੂੰ ਮੁੱਖ ਤੌਰ 'ਤੇ ਮਰਦ ਜਾਂ ਗੋਰੇ ਕਰਮਚਾਰੀਆਂ ਵਾਲੇ ਡੈਟਾਸੈੱਟ 'ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ, ਤਾਂ ਇਹ ਸੰਭਵ ਹੈ ਕਿ ਐਲਗੋਰਿਦਮ ਉਹਨਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦੇ ਅਧੀਨ ਆਉਂਦੇ ਬਿਨੈਕਾਰਾਂ ਦਾ ਸਮਰਥਨ ਕਰੇਗਾ।
ਨੈਤਿਕ AI ਲਈ ਸਿਧਾਂਤ ਸਥਾਪਤ ਕਰਨਾ
ਅਸੀਂ ਲਾਗੂ ਕਰਨ ਲਈ ਨਿਯਮਾਂ ਦਾ ਇੱਕ ਸੈੱਟ ਸਥਾਪਤ ਕਰਨ ਬਾਰੇ ਸੋਚਿਆ ਹੈ ਬਣਾਵਟੀ ਗਿਆਨ ਦਹਾਕਿਆਂ ਤੋਂ.
ਇੱਥੋਂ ਤੱਕ ਕਿ 1940 ਦੇ ਦਹਾਕੇ ਵਿੱਚ, ਜਦੋਂ ਸਭ ਤੋਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਕੰਪਿਊਟਰ ਸਿਰਫ਼ ਸਭ ਤੋਂ ਵਿਸ਼ੇਸ਼ ਵਿਗਿਆਨਕ ਗਣਨਾ ਕਰ ਸਕਦੇ ਸਨ, ਵਿਗਿਆਨਕ ਗਲਪ ਲੇਖਕਾਂ ਨੇ ਬੁੱਧੀਮਾਨ ਰੋਬੋਟਾਂ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨ ਦੇ ਵਿਚਾਰ 'ਤੇ ਵਿਚਾਰ ਕੀਤਾ ਹੈ।
ਆਈਜ਼ੈਕ ਅਸਿਮੋਵ ਨੇ ਮਸ਼ਹੂਰ ਤੌਰ 'ਤੇ ਰੋਬੋਟਿਕਸ ਦੇ ਤਿੰਨ ਕਾਨੂੰਨਾਂ ਦੀ ਰਚਨਾ ਕੀਤੀ, ਜਿਸਦਾ ਉਸਨੇ ਪ੍ਰਸਤਾਵਿਤ ਕੀਤਾ ਕਿ ਸੁਰੱਖਿਆ ਵਿਸ਼ੇਸ਼ਤਾ ਦੇ ਤੌਰ 'ਤੇ ਆਪਣੀਆਂ ਛੋਟੀਆਂ ਕਹਾਣੀਆਂ ਵਿੱਚ ਰੋਬੋਟਾਂ ਦੀ ਪ੍ਰੋਗਰਾਮਿੰਗ ਵਿੱਚ ਸ਼ਾਮਲ ਕੀਤਾ ਗਿਆ ਸੀ।
ਇਹ ਕਾਨੂੰਨ ਭਵਿੱਖ ਦੀਆਂ ਬਹੁਤ ਸਾਰੀਆਂ ਵਿਗਿਆਨਕ ਕਹਾਣੀਆਂ ਲਈ ਇੱਕ ਟੱਚਸਟੋਨ ਬਣ ਗਏ ਹਨ ਅਤੇ ਏਆਈ ਦੇ ਨੈਤਿਕਤਾ ਬਾਰੇ ਅਸਲ ਅਧਿਐਨਾਂ ਨੂੰ ਵੀ ਸੂਚਿਤ ਕੀਤਾ ਹੈ।
ਸਮਕਾਲੀ ਖੋਜ ਵਿੱਚ, AI ਖੋਜਕਰਤਾ ਨੈਤਿਕ AI ਲਈ ਸਿਧਾਂਤਾਂ ਦੀ ਇੱਕ ਸੂਚੀ ਸਥਾਪਤ ਕਰਨ ਲਈ ਵਧੇਰੇ ਆਧਾਰਿਤ ਸਰੋਤਾਂ ਦੀ ਖੋਜ ਕਰ ਰਹੇ ਹਨ।
ਕਿਉਂਕਿ AI ਆਖਰਕਾਰ ਮਨੁੱਖੀ ਜੀਵਨ ਨੂੰ ਪ੍ਰਭਾਵਤ ਕਰੇਗਾ, ਸਾਨੂੰ ਇਸ ਗੱਲ ਦੀ ਬੁਨਿਆਦੀ ਸਮਝ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ ਕਿ ਸਾਨੂੰ ਕੀ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਕੀ ਨਹੀਂ ਕਰਨਾ ਚਾਹੀਦਾ।
ਬੇਲਮੌਂਟ ਦੀ ਰਿਪੋਰਟ
ਇੱਕ ਸੰਦਰਭ ਬਿੰਦੂ ਲਈ, ਨੈਤਿਕਤਾ ਖੋਜਕਰਤਾ ਇੱਕ ਗਾਈਡ ਦੇ ਰੂਪ ਵਿੱਚ ਬੇਲਮੋਂਟ ਰਿਪੋਰਟ ਨੂੰ ਦੇਖਦੇ ਹਨ। ਦ ਬੈਲਮੋਟ ਰਿਪੋਰਟ 1979 ਵਿੱਚ ਯੂਐਸ ਨੈਸ਼ਨਲ ਇੰਸਟੀਚਿਊਟ ਆਫ਼ ਹੈਲਥ ਦੁਆਰਾ ਪ੍ਰਕਾਸ਼ਿਤ ਇੱਕ ਦਸਤਾਵੇਜ਼ ਸੀ। ਡਬਲਯੂਡਬਲਯੂ 2 ਵਿੱਚ ਕੀਤੇ ਗਏ ਬਾਇਓਮੈਡੀਕਲ ਅੱਤਿਆਚਾਰਾਂ ਨੇ ਦਵਾਈ ਦਾ ਅਭਿਆਸ ਕਰਨ ਵਾਲੇ ਖੋਜਕਰਤਾਵਾਂ ਲਈ ਨੈਤਿਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਨੂੰ ਕਾਨੂੰਨ ਬਣਾਉਣ ਲਈ ਇੱਕ ਧੱਕਾ ਕੀਤਾ।
ਇੱਥੇ ਰਿਪੋਰਟ ਵਿੱਚ ਦੱਸੇ ਗਏ ਤਿੰਨ ਬੁਨਿਆਦੀ ਸਿਧਾਂਤ ਹਨ:
- ਵਿਅਕਤੀਆਂ ਲਈ ਸਤਿਕਾਰ
- ਲਾਭ
- ਜਸਟਿਸ
ਪਹਿਲੇ ਪ੍ਰਿੰਸੀਪਲ ਦਾ ਉਦੇਸ਼ ਸਾਰੇ ਮਨੁੱਖੀ ਵਿਸ਼ਿਆਂ ਦੀ ਸਵੈਮਾਣ ਅਤੇ ਖੁਦਮੁਖਤਿਆਰੀ ਨੂੰ ਬਰਕਰਾਰ ਰੱਖਣਾ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਧੋਖਾ ਦੇਣ ਵਾਲੇ ਭਾਗੀਦਾਰਾਂ ਨੂੰ ਘੱਟ ਤੋਂ ਘੱਟ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਹਰੇਕ ਵਿਅਕਤੀ ਨੂੰ ਆਪਣੀ ਸਪੱਸ਼ਟ ਸਹਿਮਤੀ ਦੇਣ ਦੀ ਲੋੜ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ।
ਦੂਜਾ ਸਿਧਾਂਤ, ਲਾਭ, ਭਾਗੀਦਾਰਾਂ ਨੂੰ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਨੂੰ ਘੱਟ ਕਰਨ ਲਈ ਖੋਜਕਰਤਾ ਦੇ ਫਰਜ਼ 'ਤੇ ਕੇਂਦ੍ਰਤ ਕਰਦਾ ਹੈ। ਇਹ ਸਿਧਾਂਤ ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਸੰਭਾਵੀ ਸਮਾਜਿਕ ਲਾਭਾਂ ਲਈ ਵਿਅਕਤੀਗਤ ਜੋਖਮਾਂ ਦੇ ਅਨੁਪਾਤ ਨੂੰ ਸੰਤੁਲਿਤ ਕਰਨ ਦਾ ਫਰਜ਼ ਦਿੰਦਾ ਹੈ।
ਨਿਆਂ, ਬੇਲਮੌਂਟ ਰਿਪੋਰਟ ਦੁਆਰਾ ਨਿਰਧਾਰਿਤ ਅੰਤਮ ਸਿਧਾਂਤ, ਉਹਨਾਂ ਸਮੂਹਾਂ ਵਿੱਚ ਜੋਖਮਾਂ ਅਤੇ ਲਾਭਾਂ ਦੀ ਬਰਾਬਰ ਵੰਡ 'ਤੇ ਕੇਂਦ੍ਰਤ ਕਰਦਾ ਹੈ ਜੋ ਖੋਜ ਤੋਂ ਲਾਭ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਨ। ਖੋਜਕਰਤਾਵਾਂ ਦਾ ਫਰਜ਼ ਹੈ ਕਿ ਉਹ ਵਿਆਪਕ ਆਬਾਦੀ ਵਿੱਚੋਂ ਖੋਜ ਵਿਸ਼ੇ ਚੁਣਨ। ਅਜਿਹਾ ਕਰਨ ਨਾਲ ਵਿਅਕਤੀਗਤ ਅਤੇ ਪ੍ਰਣਾਲੀਗਤ ਪੱਖਪਾਤ ਨੂੰ ਘੱਟ ਕੀਤਾ ਜਾਵੇਗਾ ਜੋ ਸਮਾਜ ਨੂੰ ਨਕਾਰਾਤਮਕ ਤੌਰ 'ਤੇ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੇ ਹਨ।
AI ਖੋਜ ਵਿੱਚ ਨੈਤਿਕਤਾ ਨੂੰ ਰੱਖਣਾ
ਹਾਲਾਂਕਿ ਬੇਲਮੋਂਟ ਰਿਪੋਰਟ ਮੁੱਖ ਤੌਰ 'ਤੇ ਮਨੁੱਖੀ ਵਿਸ਼ਿਆਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨ ਵਾਲੀ ਖੋਜ 'ਤੇ ਨਿਸ਼ਾਨਾ ਬਣਾਇਆ ਗਿਆ ਸੀ, ਪਰ ਸਿਧਾਂਤ AI ਨੈਤਿਕਤਾ ਦੇ ਖੇਤਰ 'ਤੇ ਲਾਗੂ ਕਰਨ ਲਈ ਕਾਫ਼ੀ ਵਿਆਪਕ ਸਨ।
ਬਿਗ ਡੇਟਾ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੇ ਖੇਤਰ ਵਿੱਚ ਇੱਕ ਕੀਮਤੀ ਸਰੋਤ ਬਣ ਗਿਆ ਹੈ। ਪ੍ਰਕਿਰਿਆਵਾਂ ਜੋ ਇਹ ਨਿਰਧਾਰਤ ਕਰਦੀਆਂ ਹਨ ਕਿ ਖੋਜਕਰਤਾ ਡੇਟਾ ਨੂੰ ਕਿਵੇਂ ਇਕੱਤਰ ਕਰਦੇ ਹਨ ਉਹਨਾਂ ਨੂੰ ਨੈਤਿਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਪਾਲਣਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ।
ਜ਼ਿਆਦਾਤਰ ਦੇਸ਼ਾਂ ਵਿੱਚ ਡੇਟਾ ਗੋਪਨੀਯਤਾ ਕਾਨੂੰਨਾਂ ਨੂੰ ਲਾਗੂ ਕਰਨਾ ਕੁਝ ਹੱਦ ਤੱਕ ਇਸ ਗੱਲ 'ਤੇ ਸੀਮਾ ਰੱਖਦਾ ਹੈ ਕਿ ਡੇਟਾ ਕੰਪਨੀਆਂ ਕੀ ਇਕੱਠਾ ਕਰ ਸਕਦੀਆਂ ਹਨ ਅਤੇ ਵਰਤ ਸਕਦੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, ਬਹੁਗਿਣਤੀ ਰਾਸ਼ਟਰਾਂ ਕੋਲ ਅਜੇ ਵੀ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਲਈ AI ਦੀ ਵਰਤੋਂ ਨੂੰ ਰੋਕਣ ਲਈ ਕਾਨੂੰਨਾਂ ਦਾ ਇੱਕ ਮੁੱਢਲਾ ਸੈੱਟ ਹੈ।
ਏਆਈ ਨਾਲ ਨੈਤਿਕ ਤੌਰ 'ਤੇ ਕਿਵੇਂ ਕੰਮ ਕਰਨਾ ਹੈ
ਇੱਥੇ ਕੁਝ ਮੁੱਖ ਧਾਰਨਾਵਾਂ ਹਨ ਜੋ AI ਦੀ ਵਧੇਰੇ ਨੈਤਿਕ ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ ਵਰਤੋਂ ਲਈ ਕੰਮ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੀਆਂ ਹਨ।
ਪੱਖਪਾਤ ਲਈ ਨਿਯੰਤਰਣ
ਨਕਲੀ ਬੁੱਧੀ ਕੁਦਰਤੀ ਤੌਰ 'ਤੇ ਨਿਰਪੱਖ ਨਹੀਂ ਹੈ। ਐਲਗੋਰਿਦਮ ਹਮੇਸ਼ਾਂ ਸੰਮਿਲਿਤ ਪੱਖਪਾਤ ਅਤੇ ਵਿਤਕਰੇ ਲਈ ਸੰਵੇਦਨਸ਼ੀਲ ਹੁੰਦੇ ਹਨ ਕਿਉਂਕਿ ਇਸ ਤੋਂ ਸਿੱਖਣ ਵਾਲੇ ਡੇਟਾ ਵਿੱਚ ਪੱਖਪਾਤ ਸ਼ਾਮਲ ਹੁੰਦਾ ਹੈ।
ਪੱਖਪਾਤੀ AI ਦੀ ਇੱਕ ਆਮ ਉਦਾਹਰਣ ਉਹ ਕਿਸਮ ਹੈ ਜੋ ਚਿਹਰੇ ਦੀ ਪਛਾਣ ਪ੍ਰਣਾਲੀਆਂ ਵਿੱਚ ਅਕਸਰ ਦਿਖਾਈ ਦਿੰਦੀ ਹੈ। ਇਹ ਮਾਡਲ ਅਕਸਰ ਚਿੱਟੇ ਮਰਦ ਚਿਹਰਿਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਵਿੱਚ ਸਫਲ ਹੁੰਦੇ ਹਨ, ਪਰ ਗੂੜ੍ਹੀ ਚਮੜੀ ਵਾਲੇ ਲੋਕਾਂ ਨੂੰ ਪਛਾਣਨ ਵਿੱਚ ਘੱਟ ਸਫਲ ਹੁੰਦੇ ਹਨ।
ਇੱਕ ਹੋਰ ਉਦਾਹਰਣ OpenAI ਦੇ DALL-E 2 ਵਿੱਚ ਦਿਖਾਈ ਦਿੰਦੀ ਹੈ। ਉਪਭੋਗਤਾਵਾਂ ਕੋਲ ਹੈ ਖੋਜੇ ਜੋ ਕਿ ਕੁਝ ਪ੍ਰੋਂਪਟ ਅਕਸਰ ਲਿੰਗ ਅਤੇ ਨਸਲੀ ਪੱਖਪਾਤ ਨੂੰ ਦੁਬਾਰਾ ਪੈਦਾ ਕਰਦੇ ਹਨ ਜੋ ਮਾਡਲ ਨੇ ਆਪਣੇ ਔਨਲਾਈਨ ਚਿੱਤਰਾਂ ਦੇ ਡੇਟਾਸੇਟ ਤੋਂ ਚੁੱਕਿਆ ਹੈ।
ਉਦਾਹਰਨ ਲਈ, ਜਦੋਂ ਵਕੀਲਾਂ ਦੀਆਂ ਤਸਵੀਰਾਂ ਲਈ ਪ੍ਰੋਂਪਟ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ, ਤਾਂ DALL-E 2 ਪੁਰਸ਼ ਵਕੀਲਾਂ ਦੀਆਂ ਤਸਵੀਰਾਂ ਵਾਪਸ ਕਰਦਾ ਹੈ। ਦੂਜੇ ਪਾਸੇ, ਫਲਾਈਟ ਅਟੈਂਡੈਂਟ ਦੀਆਂ ਤਸਵੀਰਾਂ ਮੰਗਣ 'ਤੇ ਜ਼ਿਆਦਾਤਰ ਮਹਿਲਾ ਫਲਾਈਟ ਅਟੈਂਡੈਂਟ ਵਾਪਸ ਆਉਂਦੀਆਂ ਹਨ।
ਹਾਲਾਂਕਿ AI ਸਿਸਟਮਾਂ ਤੋਂ ਪੱਖਪਾਤ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਹਟਾਉਣਾ ਅਸੰਭਵ ਹੋ ਸਕਦਾ ਹੈ, ਅਸੀਂ ਇਸਦੇ ਪ੍ਰਭਾਵਾਂ ਨੂੰ ਘੱਟ ਕਰਨ ਲਈ ਕਦਮ ਚੁੱਕ ਸਕਦੇ ਹਾਂ। ਖੋਜਕਰਤਾਵਾਂ ਅਤੇ ਇੰਜੀਨੀਅਰ ਸਿਖਲਾਈ ਡੇਟਾ ਨੂੰ ਸਮਝ ਕੇ ਅਤੇ ਏਆਈ ਸਿਸਟਮ ਨੂੰ ਕਿਵੇਂ ਕੰਮ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ ਇਸ ਬਾਰੇ ਇਨਪੁਟ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਨ ਲਈ ਇੱਕ ਵਿਭਿੰਨ ਟੀਮ ਨੂੰ ਨਿਯੁਕਤ ਕਰਕੇ ਪੱਖਪਾਤ ਦਾ ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਨ।
ਮਨੁੱਖੀ-ਕੇਂਦਰਿਤ ਡਿਜ਼ਾਈਨ ਪਹੁੰਚ
ਤੁਹਾਡੀ ਮਨਪਸੰਦ ਐਪ 'ਤੇ ਐਲਗੋਰਿਦਮ ਤੁਹਾਨੂੰ ਨਕਾਰਾਤਮਕ ਤੌਰ 'ਤੇ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੇ ਹਨ।
ਪਲੇਟਫਾਰਮ ਜਿਵੇਂ ਕਿ Facebook ਅਤੇ TikTok ਇਹ ਸਿੱਖਣ ਦੇ ਯੋਗ ਹਨ ਕਿ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਪਲੇਟਫਾਰਮਾਂ 'ਤੇ ਰੱਖਣ ਲਈ ਕਿਹੜੀ ਸਮੱਗਰੀ ਪ੍ਰਦਾਨ ਕਰਨੀ ਹੈ।
ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਦੇ ਇਰਾਦੇ ਤੋਂ ਬਿਨਾਂ ਵੀ, ਜਿੰਨਾ ਸੰਭਵ ਹੋ ਸਕੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਐਪ ਨਾਲ ਚਿਪਕਾਏ ਰੱਖਣ ਦਾ ਉਦੇਸ਼ ਮਾਨਸਿਕ ਸਿਹਤ ਸਮੱਸਿਆਵਾਂ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦਾ ਹੈ। 'ਡੂਮਸਕਰੋਲਿੰਗ' ਸ਼ਬਦ ਟਵਿੱਟਰ ਅਤੇ ਫੇਸਬੁੱਕ ਵਰਗੇ ਪਲੇਟਫਾਰਮਾਂ 'ਤੇ ਨਕਾਰਾਤਮਕ ਖ਼ਬਰਾਂ ਪੜ੍ਹਨ ਲਈ ਬਹੁਤ ਜ਼ਿਆਦਾ ਸਮਾਂ ਬਿਤਾਉਣ ਲਈ ਕੈਚ-ਆਲ ਸ਼ਬਦ ਵਜੋਂ ਪ੍ਰਸਿੱਧੀ ਵਿੱਚ ਵਧਿਆ ਹੈ।
ਦੂਜੇ ਮਾਮਲਿਆਂ ਵਿੱਚ, ਨਫ਼ਰਤ ਭਰੀ ਸਮੱਗਰੀ ਅਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਇੱਕ ਵਿਸ਼ਾਲ ਪਲੇਟਫਾਰਮ ਪ੍ਰਾਪਤ ਕਰਦੀ ਹੈ ਕਿਉਂਕਿ ਇਹ ਉਪਭੋਗਤਾ ਦੀ ਸ਼ਮੂਲੀਅਤ ਵਧਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦੀ ਹੈ। ਏ 2021 ਦਾ ਅਧਿਐਨ ਨਿਊਯਾਰਕ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਤੋਂ ਪਤਾ ਲੱਗਦਾ ਹੈ ਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਲਈ ਜਾਣੇ ਜਾਂਦੇ ਸਰੋਤਾਂ ਦੀਆਂ ਪੋਸਟਾਂ ਨੂੰ ਪ੍ਰਤਿਸ਼ਠਾਵਾਨ ਖਬਰਾਂ ਦੇ ਸਰੋਤਾਂ ਨਾਲੋਂ ਛੇ ਗੁਣਾ ਜ਼ਿਆਦਾ ਪਸੰਦ ਮਿਲਦੇ ਹਨ।
ਇਹ ਐਲਗੋਰਿਦਮ ਇੱਕ ਮਨੁੱਖੀ-ਕੇਂਦ੍ਰਿਤ ਡਿਜ਼ਾਈਨ ਪਹੁੰਚ ਵਿੱਚ ਘਾਟ ਹਨ। ਇੰਜੀਨੀਅਰ ਜੋ ਡਿਜ਼ਾਈਨ ਕਰ ਰਹੇ ਹਨ ਕਿ AI ਇੱਕ ਕਾਰਵਾਈ ਕਿਵੇਂ ਕਰਦਾ ਹੈ, ਉਹਨਾਂ ਨੂੰ ਹਮੇਸ਼ਾ ਉਪਭੋਗਤਾ ਅਨੁਭਵ ਨੂੰ ਧਿਆਨ ਵਿੱਚ ਰੱਖਣਾ ਚਾਹੀਦਾ ਹੈ।
ਖੋਜਕਰਤਾਵਾਂ ਅਤੇ ਇੰਜੀਨੀਅਰਾਂ ਨੂੰ ਹਮੇਸ਼ਾ ਇਹ ਸਵਾਲ ਪੁੱਛਣਾ ਚਾਹੀਦਾ ਹੈ: 'ਇਸ ਨਾਲ ਉਪਭੋਗਤਾ ਨੂੰ ਕੀ ਫਾਇਦਾ ਹੁੰਦਾ ਹੈ?'
ਜ਼ਿਆਦਾਤਰ AI ਮਾਡਲ ਬਲੈਕ ਬਾਕਸ ਮਾਡਲ ਦੀ ਪਾਲਣਾ ਕਰਦੇ ਹਨ। ਵਿੱਚ ਇੱਕ ਬਲੈਕ ਬਾਕਸ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਇੱਕ AI ਦਾ ਹਵਾਲਾ ਦਿੰਦਾ ਹੈ ਜਿੱਥੇ ਕੋਈ ਵੀ ਮਨੁੱਖ ਇਹ ਨਹੀਂ ਦੱਸ ਸਕਦਾ ਕਿ AI ਕਿਸੇ ਖਾਸ ਨਤੀਜੇ 'ਤੇ ਕਿਉਂ ਪਹੁੰਚਿਆ।
ਬਲੈਕ ਬਾਕਸ ਸਮੱਸਿਆ ਵਾਲੇ ਹਨ ਕਿਉਂਕਿ ਇਹ ਮਸ਼ੀਨਾਂ ਵਿੱਚ ਸਾਡੇ ਦੁਆਰਾ ਰੱਖੇ ਗਏ ਭਰੋਸੇ ਦੀ ਮਾਤਰਾ ਨੂੰ ਘਟਾਉਂਦਾ ਹੈ।
ਉਦਾਹਰਨ ਲਈ, ਆਓ ਇੱਕ ਦ੍ਰਿਸ਼ ਦੀ ਕਲਪਨਾ ਕਰੀਏ ਜਿੱਥੇ Facebook ਨੇ ਇੱਕ ਐਲਗੋਰਿਦਮ ਜਾਰੀ ਕੀਤਾ ਜਿਸ ਨੇ ਸਰਕਾਰਾਂ ਨੂੰ ਅਪਰਾਧੀਆਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਵਿੱਚ ਮਦਦ ਕੀਤੀ। ਜੇਕਰ AI ਸਿਸਟਮ ਤੁਹਾਨੂੰ ਫਲੈਗ ਕਰਦਾ ਹੈ, ਤਾਂ ਕੋਈ ਵੀ ਇਹ ਦੱਸਣ ਦੇ ਯੋਗ ਨਹੀਂ ਹੋਵੇਗਾ ਕਿ ਉਸਨੇ ਇਹ ਫੈਸਲਾ ਕਿਉਂ ਲਿਆ ਹੈ। ਇਸ ਕਿਸਮ ਦਾ ਸਿਸਟਮ ਇਕੋ ਇਕ ਕਾਰਨ ਨਹੀਂ ਹੋਣਾ ਚਾਹੀਦਾ ਕਿ ਤੁਹਾਨੂੰ ਗ੍ਰਿਫਤਾਰ ਕਿਉਂ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ।
ਵਿਆਖਿਆਯੋਗ AI ਜਾਂ XAI ਨੂੰ ਅੰਤਮ ਨਤੀਜੇ ਵਿੱਚ ਯੋਗਦਾਨ ਪਾਉਣ ਵਾਲੇ ਕਾਰਕਾਂ ਦੀ ਸੂਚੀ ਵਾਪਸ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਸਾਡੇ ਕਾਲਪਨਿਕ ਅਪਰਾਧਿਕ ਟਰੈਕਰ 'ਤੇ ਵਾਪਸ ਜਾ ਕੇ, ਅਸੀਂ ਸ਼ੱਕੀ ਭਾਸ਼ਾ ਜਾਂ ਸ਼ਰਤਾਂ ਨੂੰ ਦਿਖਾਉਣ ਵਾਲੀਆਂ ਪੋਸਟਾਂ ਦੀ ਸੂਚੀ ਵਾਪਸ ਕਰਨ ਲਈ AI ਸਿਸਟਮ ਨੂੰ ਟਵੀਕ ਕਰ ਸਕਦੇ ਹਾਂ। ਉੱਥੋਂ, ਇੱਕ ਮਨੁੱਖ ਇਹ ਤਸਦੀਕ ਕਰ ਸਕਦਾ ਹੈ ਕਿ ਫਲੈਗ ਕੀਤਾ ਉਪਭੋਗਤਾ ਜਾਂਚ ਦੇ ਯੋਗ ਹੈ ਜਾਂ ਨਹੀਂ।
XAI AI ਪ੍ਰਣਾਲੀਆਂ ਵਿੱਚ ਵਧੇਰੇ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਭਰੋਸਾ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ ਅਤੇ ਮਨੁੱਖਾਂ ਨੂੰ ਬਿਹਤਰ ਫੈਸਲੇ ਲੈਣ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦਾ ਹੈ।
ਸਿੱਟਾ
ਮਨੁੱਖ ਦੁਆਰਾ ਬਣਾਈਆਂ ਸਾਰੀਆਂ ਕਾਢਾਂ ਵਾਂਗ, ਨਕਲੀ ਬੁੱਧੀ ਕੁਦਰਤੀ ਤੌਰ 'ਤੇ ਚੰਗੀ ਜਾਂ ਮਾੜੀ ਨਹੀਂ ਹੈ। ਇਹ ਉਹ ਤਰੀਕਾ ਹੈ ਜੋ ਅਸੀਂ AI ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਾਂ ਜੋ ਮਹੱਤਵਪੂਰਨ ਹੈ।
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਵਿਲੱਖਣ ਗੱਲ ਇਹ ਹੈ ਕਿ ਇਹ ਵਧ ਰਹੀ ਗਤੀ ਹੈ। ਪਿਛਲੇ ਪੰਜ ਸਾਲਾਂ ਵਿੱਚ, ਅਸੀਂ ਹਰ ਰੋਜ਼ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਦੇ ਖੇਤਰ ਵਿੱਚ ਨਵੀਆਂ ਅਤੇ ਦਿਲਚਸਪ ਖੋਜਾਂ ਵੇਖੀਆਂ ਹਨ।
ਹਾਲਾਂਕਿ, ਕਾਨੂੰਨ ਇੰਨਾ ਤੇਜ਼ ਨਹੀਂ ਹੈ. ਜਿਵੇਂ ਕਿ ਕਾਰਪੋਰੇਸ਼ਨਾਂ ਅਤੇ ਸਰਕਾਰਾਂ ਮੁਨਾਫੇ ਨੂੰ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰਨ ਜਾਂ ਨਾਗਰਿਕਾਂ ਦੇ ਨਿਯੰਤਰਣ ਨੂੰ ਜ਼ਬਤ ਕਰਨ ਲਈ AI ਦਾ ਲਾਭ ਲੈਣਾ ਜਾਰੀ ਰੱਖਦੀਆਂ ਹਨ, ਸਾਨੂੰ ਇਹਨਾਂ ਐਲਗੋਰਿਦਮਾਂ ਦੀ ਵਰਤੋਂ ਵਿੱਚ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਇਕੁਇਟੀ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਦੇ ਤਰੀਕੇ ਲੱਭਣੇ ਚਾਹੀਦੇ ਹਨ।
ਕੀ ਤੁਹਾਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਸੱਚਮੁੱਚ ਨੈਤਿਕ AI ਸੰਭਵ ਹੈ?
ਕੋਈ ਜਵਾਬ ਛੱਡਣਾ