Safeer News

Breaking News from Ahmedabad

દુનિયા

આખી દુનિયામાં લોકો આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI) વિશે ચિંતિત

જે મહિલાઓ તેમના ફોટા સોશિયલ મીડિયા પર પોસ્ટ કરે છે તેમના માટે તે ખૂબ જ ખતરનાક સાબિત થઈ શકે છે

AI દ્વારા મહિલાઓની તસવીરોનો દુરુપયોગ થઈ રહ્યો છે

અત્યારે દુનિયામાં AIની ચર્ચા જાેરશોરથી ચાલી રહી છે. કેટલાક તેના ફાયદા જણાવી રહ્યા છે તો કેટલાક તેને લોકો માટે સૌથી મોટો ખતરો ગણાવી રહ્યા છે. જાે કે, તે ટેક્નોલોજીનો ઉપયોગ કરનાર વ્યક્તિ પર આધાર રાખે છે કે, તેણે તેનો ઉપયોગ કયા સ્વરૂપમાં કરવો જાેઈએ કારણ કે, તેના ફાયદા અને ગેરફાયદા બંને હોઈ શકે છે.

AI સાથે પણ કંઈક આવું જ જાેવા મળી રહ્યું છે. કેટલાક લોકો AIની મદદથી કામને સરળ બનાવે છે તો કેટલાક લોકો તેની મદદથી અશ્લીલતા ફેલાવવાનું શરૂ કરી દીધું છે. કેટલાક લોકોએ AI દ્વારા સ્વિમસૂટ, અન્ડરવેર સિવાય તેમના દ્વારા પહેરવામાં આવેલા તમામ કપડા હટાવીને મહિલાઓની નગ્ન તસવીર બનાવે છે, જેને જાેઈને દરેકને લાગે છે કે, તે સંપૂર્ણપણે વાસ્તવિક છે.

જે મહિલાઓ તેમના ફોટા સોશિયલ મીડિયા પર પોસ્ટ કરે છે તેમના માટે તે ખૂબ જ ખતરનાક સાબિત થઈ શકે છે કારણ કે, કોઈપણ વ્યક્તિ તમારા ફોટા ચોરી શકે છે અને તેનો દુરુપયોગ કરી શકે છે. આ સોફ્ટવેર લોકો માટે મફત નથી અને આ માટે તમારે પૈસા ચૂકવવા પડશે. તેના સૌથી સસ્તા ૧૦૦ ક્રેડિટ પેકની કિંમત ૩૦ US ડોલર છે. કેટલાક લોકોએ AIનો ઉપયોગ કરીને એક મિલિયનથી વધુ નગ્ન ફોટા જનરેટ કર્યા છે. તે સૌપ્રથમ સેન્સિટી નામની સુરક્ષા કંપની દ્વારા શોધાયું હતું. આ ચેનલના મોટાભાગના ૭૦ ટકા વપરાશકર્તાઓ રશિયામાંથી આવ્યા હતા, જ્યારે તેમાંથી કેટલાક યુરોપિયન દેશોના પણ હતા. નિષ્ણાતોએ ચેતવણી આપી છે કે, આવી તસવીરોનો દુરુપયોગ મહિલાઓને બ્લેકમેલ કરવા અથવા હેરાન કરવા માટે થઈ શકે છે. રિપોર્ટમાં કહેવામાં આવ્યું છે કે, AI બૉટ જવાબદાર ડીપન્યુડ સૉફ્ટવેરના ઓપન-સોર્સ વર્ઝન પર આધારિત હોઈ શકે છે, જે કપડા પહેરેલી મહિલાઓની છબીઓના સમાચાર સંસ્કરણો બનાવવા માટે ડીપ ટેક્નોલોજી અને GAN અથવા જનરેટિવ એડવર્સરિયલ નેટવર્ક્‌સનો ઉપયોગ કરે છે.

AIએ તેને એવું બનાવ્યું છે કે, તે એકદમ વાસ્તવિક લાગે છે અને તેમાં ચહેરો સ્પષ્ટ દેખાય છે. તેનાથી પણ વધુ ચિંતાજનક હકીકત એ છે કે, આ પ્લેટફોર્મ પર સગીર વયની છોકરીઓની તસવીરો પણ હતી. થોડા સમય પહેલા ચીનની જાણીતી અભિનેત્રી યાંગ મીનો એક વીડિયો સામે આવ્યો હતો. આ ફેક વીડિયોમાં અભિનેત્રીનો ચહેરો યાંગ સાથે બદલવામાં આવ્યો હતો. આ વીડિયો ચીનમાં ઝડપથી વાયરલ થયો હતો અને તેને દૂર કરવામાં આવ્યો ત્યાં સુધીમાં ૨૪૦ મિલિયનથી વધુ લોકોએ તેને જાેઈ લીધો હતો. જાે કે, તેનો પહેલો વીડિયો ૨૦૧૭માં આવ્યો હતો, જેમાં હોલિવૂડની કેટલીક હસ્તીઓના નકલી પોર્નોગ્રાફિક વીડિયો સામે આવ્યા હતા.

શરૂઆતમાં સરળ ઓપન સોર્સ વીડિયો એડિટિંગ ટૂલ્સનો ઉપયોગ ઑડિયો અને વીડિયોની હેરફેર માટે કરવામાં આવતો હતો, પરંતુ ગુનેગારો હવે મશીન લર્નિંગનો ઉપયોગ કરી રહ્યાં છે. આનો ઉપયોગ કરીને બનાવેલા નકલી વીડિયો સરળતાથી શોધી શકાતા નથી અને આ રીતે તે ડિજિટલ ફોરેન્સિક્સ માટે ગંભીર પડકાર ઊભો કરે છે. આ વીડિયોને એટલો વાસ્તવિક બનાવે છે કે, પરંપરાગત મીડિયા ફોરેન્સિક્સ પણ આવા વીડિયોને નકલી તરીકે ઓળખવામાં નિષ્ફળ જાય છે. જાે કે, કેટલાક ટૂલ્સ એવા છે જેના દ્વારા વીડિયો વિશે જાણકારી મેળવી શકાય છે.

LEAVE A RESPONSE

Your email address will not be published. Required fields are marked *