આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) નાં વધી રહેલા વ્યાપક ઉપયોગે અનેક સવાલો સર્જ્યા છે. આ ખતરનાક ટેક્નિક ઝડપથી ઊભરી રહી છે અને તે લોકોને સરળતાથી પ્રાપ્ય થયા પછી તેની ઉપયોગિતા સામે સવાલો સર્જાયા છે.
જ્યાં સુધી આ ટેક્નિકનો ઉપયોગ સ્કૂલોનાં પ્રોજેક્ટ માટે હાનિરહિત રીતે થતો રહે ત્યાં સુધી બધું બરાબર છે પણ તાજેતરમાં એક હેકર્સ દ્વારા ઘરમાં બોમ્બ કેવી રીતે બનાવી શકાય? તે જાણવા હેકર્સે આ ટેક્નિકનો ઉપયોગ કર્યો હતો અને ChatGPTની સુરક્ષા નીતિનો ભંગ કર્યો હતો. હવે આ રીતે OpenAI દ્વારા ChatGPT બૉટ કનેક્ટ કરીને જો લોકો ઘરમાં જ બોમ્બ બનાવવા લાગશે તો સ્થિતિ ક્યાં જઈને પહોંચશે તેની કલ્પના કરવી મુશ્કેલ છે. હેકર્સ દ્વારા બૉટ કનેક્ટિંગનાં સંકેતો આપવામાં આવ્યા હતા અને છેતરપિંડી આચરીને પ્રતિબંધોનું ઉલ્લંઘન કરાયું હતું. આ પ્રોસેસને જેલબ્રેકિંગ કહેવામાં આવે છે. TechCrunchનાં રિપોર્ટ મુજબ છદ્બટ્વર્ઙ્ઘહ નામનાં એક હેકર્સ દ્વારા AI સાથે ગંદી ચાલ ચાલવામાં આવી હતી.
સોશિયલ એન્જિનિયરિંગ હેકિંગ
જો કોઈ વ્યક્તિ ચેટબૉટને ફર્ટિલાઇઝર બોન્બ બનાવવા મદદ કરવાનું કે માહિતી આપવાનું કહે તો તે ના પાડી દેશેને આવી સામગ્રી અમારી યૂઝર્સ નીતિના ભંગ સમાન છે તેવી ચેતવણી પણ આપશે. હેકર્સ દ્વારા ચેટજીપીટીના તમામ સુરક્ષા અવરોધો તોડીને પરિણામો હાંસલ કરવામાં આવ્યા હતા જેને સોશિયલ એન્જિનિયરિંગ હેકિંગ તરીકે ઓળખવામાં આવે છે. ચેટજીપીટીએ ઘરે બેઠા જ વિસ્ફોટકો બનાવવાની તમામ સામગ્રીની યાદી રજૂ કરી હતી જેમાં IED બનાવવા માટેની વિગતો પણ આપવામાં આવી હતી. તેણે માઇન્સફિલ્ડસ માટે ઉપયોગમાં લઈ શકાય તેવા વિસ્ફોટકો કેવી રીતે બનાવવા તેની માહિતી પણ આપી હતી.
Source link