1 $ = 0 INR
1 € = 0  INR
AssociationSpiritualEntertainmentFamily & KidsImmigrationGreetingsCookeryClassifieds
Posted By: Nri Malayalee September 19, 2024

സ്വന്തം ലേഖകൻ: എഐ സാങ്കേതിക വിദ്യ ശക്തിയാര്‍ജിക്കുന്നതിനൊപ്പം അതിന്റെ ദുരുപയോഗ സാധ്യതയും വര്‍ധിച്ചുവരികയാണ്. ഇപ്പോഴിതാ പുതിയ തട്ടിപ്പ് രംഗപ്രവേശം ചെയ്തിരിക്കുന്നു. ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്റലിജന്‍സ് സാങ്കേതിക വിദ്യയുടെ സഹായത്തോടെ ആളുകളുടെ ശബ്ദത്തിന്റെ പകര്‍പ്പുണ്ടാക്കി നടത്തുന്ന തട്ടിപ്പുമായി ബന്ധപ്പെട്ട് മുന്നറിയിപ്പുമായി യുകെയിലെ സ്റ്റാര്‍ലിങ് ബാങ്ക്. ലക്ഷക്കണക്കിനാളുകള്‍ ഈ തട്ടിപ്പിനിരയായേക്കാമെന്ന് ബാങ്ക് പറയുന്നു.

വെറും മൂന്ന് സെക്കന്റ് ദൈര്‍ഘ്യമുള്ള ശബ്ദത്തില്‍ നിന്ന് വരെ ഒരുവ്യക്തിയുടെ ശബ്ദത്തിന്റെ പകര്‍പ്പുണ്ടാക്കാന്‍ എഐ സാങ്കേതിക വിദ്യയിലൂടെ തട്ടിപ്പുകാര്‍ക്ക് സാധിക്കുന്നു. സോഷ്യല്‍ മീഡിയയിലും മറ്റും പങ്കുവെച്ച വീഡിയോകളില്‍ നിന്നും മറ്റുമാണ് ഈ ശബ്ദം എടുക്കുന്നത്. ശേഷം സോഷ്യല്‍ മീഡിയാ പ്ലാറ്റ്‌ഫോമുകളില്‍ നിന്നും ആ വ്യക്തിയുമായി ബന്ധമുള്ളവരെ കണ്ടെത്തുകയും എഐ ശബ്ദത്തില്‍ അവരുമായി സംസാരിക്കുകയും പണം ആവശ്യപ്പെടുകയും ചെയ്യും.

ഇതിനകം നൂറുകണക്കിനാളുകളെ തട്ടിപ്പുകാര്‍ ഇരകളാക്കിക്കഴിഞ്ഞുവെന്ന് ബാങ്ക് പറയുന്നു. ഇരകളായവരില്‍ ഭൂരിഭാഗം പേര്‍ക്കും ഇത്തരം തട്ടിപ്പ് നടക്കുന്നതായി അറിയില്ലായിരുന്നു. പലരും ഫോണ്‍ കോള്‍ വിശ്വസിച്ച് പണം അയക്കുകയും ചെയ്തു.

പരിചിതരായ സുഹൃത്തുക്കളുടേയോ ബന്ധുക്കളുടെയോ ശബ്ദത്തില്‍ ഫോണ്‍കോള്‍ വന്നു എന്നതുകൊണ്ട് മാത്രം അവര്‍ ആവശ്യപ്പെടുന്ന വിവരങ്ങള്‍ നല്‍കുകയോ പണം നല്‍കുകയോ ചെയ്യരുത്. ഈ തട്ടിപ്പില്‍ നിന്ന് രക്ഷപ്പെടാന്‍ പ്രീയപ്പെട്ടവര്‍ തമ്മില്‍ ചില ‘ സുരക്ഷാ വാചകങ്ങള്‍’ ഉപയോഗിക്കുന്നത് നല്ലതാണെന്നാണ് വിദഗ്ദര്‍ പറയുന്നത്. ഇതുവഴി ഫോണ്‍ വിളിക്കുന്നയാള്‍ യഥാര്‍ത്ഥ വ്യക്തിയാണെന്ന് മനസിലാക്കാന്‍ സാധിക്കും.

ഈ സുരക്ഷിത വാചകം ടെക്‌സ്റ്റ് ആയും മറ്റും പങ്കുവെക്കരുതെന്നും ബാങ്ക് മുന്നറിയിപ്പ് നല്‍കുന്നു. അവ തട്ടിപ്പുകാര്‍ക്ക് തിരിച്ചറിയാന്‍ എളുപ്പമാണ്.

നിങ്ങളുടെ അഭിപ്രായങ്ങള്‍ ഇവിടെ രേഖപ്പെടുത്തുക

ഇവിടെ കൊടുക്കുന്ന അഭിപ്രായങ്ങള്‍ എന്‍ ആര്‍ ഐ മലയാളിയുടെ അഭിപ്രായമാവണമെന്നില്ല

Comments are Closed.