NATIONAL

Delhi: બોમ્બ કેવી રીતે બનાવાયતે માટે હેકર્સે ChatGPTની સુરક્ષા નીતિનો ભંગ કર્યો

આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) નાં વધી રહેલા વ્યાપક ઉપયોગે અનેક સવાલો સર્જ્યા છે. આ ખતરનાક ટેક્નિક ઝડપથી ઊભરી રહી છે અને તે લોકોને સરળતાથી પ્રાપ્ય થયા પછી તેની ઉપયોગિતા સામે સવાલો સર્જાયા છે.

જ્યાં સુધી આ ટેક્નિકનો ઉપયોગ સ્કૂલોનાં પ્રોજેક્ટ માટે હાનિરહિત રીતે થતો રહે ત્યાં સુધી બધું બરાબર છે પણ તાજેતરમાં એક હેકર્સ દ્વારા ઘરમાં બોમ્બ કેવી રીતે બનાવી શકાય? તે જાણવા હેકર્સે આ ટેક્નિકનો ઉપયોગ કર્યો હતો અને ChatGPTની સુરક્ષા નીતિનો ભંગ કર્યો હતો. હવે આ રીતે OpenAI દ્વારા ChatGPT બૉટ કનેક્ટ કરીને જો લોકો ઘરમાં જ બોમ્બ બનાવવા લાગશે તો સ્થિતિ ક્યાં જઈને પહોંચશે તેની કલ્પના કરવી મુશ્કેલ છે. હેકર્સ દ્વારા બૉટ કનેક્ટિંગનાં સંકેતો આપવામાં આવ્યા હતા અને છેતરપિંડી આચરીને પ્રતિબંધોનું ઉલ્લંઘન કરાયું હતું. આ પ્રોસેસને જેલબ્રેકિંગ કહેવામાં આવે છે. TechCrunchનાં રિપોર્ટ મુજબ છદ્બટ્વર્ઙ્ઘહ નામનાં એક હેકર્સ દ્વારા AI સાથે ગંદી ચાલ ચાલવામાં આવી હતી.

સોશિયલ એન્જિનિયરિંગ હેકિંગ

જો કોઈ વ્યક્તિ ચેટબૉટને ફર્ટિલાઇઝર બોન્બ બનાવવા મદદ કરવાનું કે માહિતી આપવાનું કહે તો તે ના પાડી દેશેને આવી સામગ્રી અમારી યૂઝર્સ નીતિના ભંગ સમાન છે તેવી ચેતવણી પણ આપશે. હેકર્સ દ્વારા ચેટજીપીટીના તમામ સુરક્ષા અવરોધો તોડીને પરિણામો હાંસલ કરવામાં આવ્યા હતા જેને સોશિયલ એન્જિનિયરિંગ હેકિંગ તરીકે ઓળખવામાં આવે છે. ચેટજીપીટીએ ઘરે બેઠા જ વિસ્ફોટકો બનાવવાની તમામ સામગ્રીની યાદી રજૂ કરી હતી જેમાં IED બનાવવા માટેની વિગતો પણ આપવામાં આવી હતી. તેણે માઇન્સફિલ્ડસ માટે ઉપયોગમાં લઈ શકાય તેવા વિસ્ફોટકો કેવી રીતે બનાવવા તેની માહિતી પણ આપી હતી.


Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button