സ്വന്തം ലേഖകൻ: എഐ സാങ്കേതിക വിദ്യ ശക്തിയാര്ജിക്കുന്നതിനൊപ്പം അതിന്റെ ദുരുപയോഗ സാധ്യതയും വര്ധിച്ചുവരികയാണ്. ഇപ്പോഴിതാ പുതിയ തട്ടിപ്പ് രംഗപ്രവേശം ചെയ്തിരിക്കുന്നു. ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്സ് സാങ്കേതിക വിദ്യയുടെ സഹായത്തോടെ ആളുകളുടെ ശബ്ദത്തിന്റെ പകര്പ്പുണ്ടാക്കി നടത്തുന്ന തട്ടിപ്പുമായി ബന്ധപ്പെട്ട് മുന്നറിയിപ്പുമായി യുകെയിലെ സ്റ്റാര്ലിങ് ബാങ്ക്. ലക്ഷക്കണക്കിനാളുകള് ഈ തട്ടിപ്പിനിരയായേക്കാമെന്ന് ബാങ്ക് പറയുന്നു.
വെറും മൂന്ന് സെക്കന്റ് ദൈര്ഘ്യമുള്ള ശബ്ദത്തില് നിന്ന് വരെ ഒരുവ്യക്തിയുടെ ശബ്ദത്തിന്റെ പകര്പ്പുണ്ടാക്കാന് എഐ സാങ്കേതിക വിദ്യയിലൂടെ തട്ടിപ്പുകാര്ക്ക് സാധിക്കുന്നു. സോഷ്യല് മീഡിയയിലും മറ്റും പങ്കുവെച്ച വീഡിയോകളില് നിന്നും മറ്റുമാണ് ഈ ശബ്ദം എടുക്കുന്നത്. ശേഷം സോഷ്യല് മീഡിയാ പ്ലാറ്റ്ഫോമുകളില് നിന്നും ആ വ്യക്തിയുമായി ബന്ധമുള്ളവരെ കണ്ടെത്തുകയും എഐ ശബ്ദത്തില് അവരുമായി സംസാരിക്കുകയും പണം ആവശ്യപ്പെടുകയും ചെയ്യും.
ഇതിനകം നൂറുകണക്കിനാളുകളെ തട്ടിപ്പുകാര് ഇരകളാക്കിക്കഴിഞ്ഞുവെന്ന് ബാങ്ക് പറയുന്നു. ഇരകളായവരില് ഭൂരിഭാഗം പേര്ക്കും ഇത്തരം തട്ടിപ്പ് നടക്കുന്നതായി അറിയില്ലായിരുന്നു. പലരും ഫോണ് കോള് വിശ്വസിച്ച് പണം അയക്കുകയും ചെയ്തു.
പരിചിതരായ സുഹൃത്തുക്കളുടേയോ ബന്ധുക്കളുടെയോ ശബ്ദത്തില് ഫോണ്കോള് വന്നു എന്നതുകൊണ്ട് മാത്രം അവര് ആവശ്യപ്പെടുന്ന വിവരങ്ങള് നല്കുകയോ പണം നല്കുകയോ ചെയ്യരുത്. ഈ തട്ടിപ്പില് നിന്ന് രക്ഷപ്പെടാന് പ്രീയപ്പെട്ടവര് തമ്മില് ചില ‘ സുരക്ഷാ വാചകങ്ങള്’ ഉപയോഗിക്കുന്നത് നല്ലതാണെന്നാണ് വിദഗ്ദര് പറയുന്നത്. ഇതുവഴി ഫോണ് വിളിക്കുന്നയാള് യഥാര്ത്ഥ വ്യക്തിയാണെന്ന് മനസിലാക്കാന് സാധിക്കും.
ഈ സുരക്ഷിത വാചകം ടെക്സ്റ്റ് ആയും മറ്റും പങ്കുവെക്കരുതെന്നും ബാങ്ക് മുന്നറിയിപ്പ് നല്കുന്നു. അവ തട്ടിപ്പുകാര്ക്ക് തിരിച്ചറിയാന് എളുപ്പമാണ്.
നിങ്ങളുടെ അഭിപ്രായങ്ങള് ഇവിടെ രേഖപ്പെടുത്തുക
ഇവിടെ കൊടുക്കുന്ന അഭിപ്രായങ്ങള് എന് ആര് ഐ മലയാളിയുടെ അഭിപ്രായമാവണമെന്നില്ല