જાણો A.I દ્વારા થતો ગંદો ધંધો મહિલાઓ ને કેવી રીતે બ્લેકમેલ કરવામા આવે છે!

જાણો A.I દ્વારા થતો ગંદો ધંધો મહિલાઓ ને કેવી રીતે બ્લેકમેલ કરવામા આવે છે!

07/24/2023 Sci-Tech

SidhiKhabar

SidhiKhabar

જાણો A.I  દ્વારા થતો ગંદો ધંધો મહિલાઓ ને કેવી રીતે બ્લેકમેલ કરવામા આવે છે!

અત્યારે દુનિયામાં AIની ચર્ચા જોરશોરથી ચાલી રહી છે. કેટલાક તેના ફાયદા જણાવી રહ્યા છે તો કેટલાક તેને લોકો માટે સૌથી મોટો ખતરો ગણાવી રહ્યા છે. જો કે, તે ટેક્નોલોજીનો ઉપયોગ કરનાર વ્યક્તિ પર આધાર રાખે છે કે તેણે તેનો ઉપયોગ કયા સ્વરૂપમાં કરવો જોઈએ, કારણ કે તેના ફાયદા અને ગેરફાયદા બંને હોઈ શકે છે. AI સાથે પણ કંઈક આવું જ જોવા મળી રહ્યું છે. કેટલાક લોકો AIની મદદથી કામને સરળ બનાવે છે તો કેટલાક લોકોએ તેની મદદથી અશ્લીલતા ફેલાવવાનું શરૂ કરી દીધું છે. કેટલાક લોકોએ AI દ્વારા સ્વિમસૂટ, અન્ડરવેર સિવાય તેમના દ્વારા પહેરવામાં આવેલા તમામ કપડા હટાવીને મહિલાઓની નગ્ન તસવીર બનાવી છે, જેને જોઈને દરેકને લાગે છે કે તે સંપૂર્ણપણે વાસ્તવિક છે.


આ રીતે ફોટા ચોરી થતી હતી

આ રીતે ફોટા ચોરી થતી હતી

જે મહિલાઓ તેમના ફોટા સોશિયલ મીડિયા પર પોસ્ટ કરે છે તેમના માટે તે ખૂબ જ ખતરનાક સાબિત થઈ શકે છે, કારણ કે કોઈપણ વ્યક્તિ તમારા ફોટા ચોરી શકે છે અને તેનો દુરુપયોગ કરી શકે છે. આ સોફ્ટવેર લોકો માટે મફત નથી અને આ માટે તમારે પૈસા ચૂકવવા પડશે. તેના સૌથી સસ્તા 100 ક્રેડિટ પેકની કિંમત 30 US ડોલર છે.


મહિલાઓને બ્લેકમેલ

મહિલાઓને બ્લેકમેલ

કેટલાક લોકોએ AIનો ઉપયોગ કરીને એક મિલિયનથી વધુ નગ્ન ફોટા જનરેટ કર્યા છે. તે સૌપ્રથમ સેન્સિટી નામની સુરક્ષા કંપની દ્વારા શોધાયું હતું. આ ચેનલના મોટાભાગના 70 ટકા વપરાશકર્તાઓ રશિયામાંથી આવ્યા હતા, જ્યારે તેમાંથી કેટલાક યુરોપિયન દેશોના પણ હતા. નિષ્ણાતોએ ચેતવણી આપી છે કે આવી તસવીરોનો દુરુપયોગ મહિલાઓને બ્લેકમેલ કરવા અથવા હેરાન કરવા માટે થઈ શકે છે.


સગીર વયની છોકરીઓની તસવીરો પણ હતી

સગીર વયની છોકરીઓની તસવીરો પણ હતી

રિપોર્ટમાં કહેવામાં આવ્યું છે કે AI બૉટ જવાબદાર ડીપન્યુડ સૉફ્ટવેરના ઓપન-સોર્સ વર્ઝન પર આધારિત હોઈ શકે છે, જે કપડા પહેરેલી મહિલાઓની છબીઓના સમાચાર સંસ્કરણો બનાવવા માટે ડીપ ટેક્નોલોજી અને GAN અથવા જનરેટિવ એડવર્સરિયલ નેટવર્ક્સનો ઉપયોગ કરે છે. AIએ તેને એવું બનાવ્યું છે કે તે એકદમ વાસ્તવિક લાગે છે અને તેમાં ચહેરો સ્પષ્ટ દેખાય છે. તેનાથી પણ વધુ ચિંતાજનક હકીકત એ છે કે આ પ્લેટફોર્મ પર સગીર વયની છોકરીઓની તસવીરો પણ હતી.


અભિનેત્રી પણ તેનો શિકાર બની હતી

અભિનેત્રી પણ તેનો શિકાર બની હતી

થોડા સમય પહેલા ચીનની જાણીતી અભિનેત્રી યાંગ મીનો એક વીડિયો સામે આવ્યો હતો. આ ફેક વીડિયોમાં અભિનેત્રીનો ચહેરો યાંગ સાથે બદલવામાં આવ્યો હતો. આ વીડિયો ચીનમાં ઝડપથી વાયરલ થયો હતો અને તેને દૂર કરવામાં આવ્યો ત્યાં સુધીમાં 240 મિલિયનથી વધુ લોકોએ તેને જોઈ લીધો હતો. જો કે તેનો પહેલો વીડિયો 2017માં આવ્યો હતો, જેમાં હોલિવૂડની કેટલીક હસ્તીઓના નકલી પોર્નોગ્રાફિક વીડિયો સામે આવ્યા હતા. શરૂઆતમાં, સરળ ઓપન સોર્સ વીડિયો એડિટિંગ ટૂલ્સનો ઉપયોગ ઑડિયો અને વીડિયોની હેરફેર માટે કરવામાં આવતો હતો, પરંતુ ગુનેગારો હવે મશીન લર્નિંગનો ઉપયોગ કરી રહ્યાં છે.


તે વાસ્તવિક છે કે નહીં તે કેવી રીતે જાણવું

તે વાસ્તવિક છે કે નહીં તે કેવી રીતે જાણવું

આનો ઉપયોગ કરીને બનાવેલા નકલી વીડિયો સરળતાથી શોધી શકાતા નથી અને આ રીતે તે ડિજિટલ ફોરેન્સિક્સ માટે ગંભીર પડકાર ઊભો કરે છે. આ વીડિયોને એટલો વાસ્તવિક બનાવે છે કે પરંપરાગત મીડિયા ફોરેન્સિક્સ પણ આવા વીડિયોને નકલી તરીકે ઓળખવામાં નિષ્ફળ જાય છે. જો કે, કેટલાક ટૂલ્સ એવા છે જેના દ્વારા વીડિયો વિશે જાણકારી મેળવી શકાય છે.


તમારા મોબાઈલ પર તમામ પ્રકારના લેટેસ્ટ ન્યૂઝના અપડેટ્સ મેળવવા માટે નીચે અપેલા બટન પર ક્લિક કરીને અમારા વોટ્સેપ ગ્રુપમાં જોડાવ.

Join WhatsApp

Comments

Top