വീണ്ടും രശ്മികയുടെ ഫേക്ക് വീഡിയോ; സോഷ്യല്‍ മീഡിയയില്‍ വൈറല്‍

അടുത്തിടെയാണ് നടി രശ്മിക മന്ദാനയുടെ ഒരു ‘ഡീപ്‌ഫേക്ക്’ വീഡിയോ വൈറലായി വന്‍ വിവാദം സൃഷ്ടിച്ചിരുന്നു. സാറ പട്ടേല്‍ എന്ന ബ്രിട്ടീഷ് ഇന്‍ഫ്‌ല്യൂവെന്‍സറുടെ വീഡിയോയില്‍ രശ്മികയുടെ തല ചേര്‍ത്താണ് വീഡിയോ വൈറലായത്. ഇതിന് പിന്നാലെ ദില്ലി വനിത കമ്മിഷന്‍ അധ്യക്ഷ സ്വാതി മലിവാള്‍ നല്‍കിയ പരാതിയില്‍ പൊലീസ് കേസ് എടുത്തിരുന്നു.

സംഭവത്തില്‍ മെറ്റയടക്കം സാമൂഹിക മാധ്യമ കമ്പനികളുമായി പൊലീസ് ആശയവിനിമയം തുടങ്ങിയെന്നാണ് വിവരം. അതേസമയം വീണ്ടും രശ്മികയുടെ ഒരു ഡീപ്പ് ഫേക്ക് വീഡിയോ വൈറലാകുകയാണ്, എന്നാല്‍ ഈ ക്ലിപ്പ് ആദ്യത്തെ വൈറല്‍ വീഡിയോ പോലെ അശ്ലീലമെന്ന് പറയാന്‍ പറ്റില്ല. മറ്റൊരു പെണ്‍കുട്ടിയുടെ മുഖത്ത് രശ്മികയുടെ മുഖം മോര്‍ഫ് ചെയ്ത രീതിയിലാണ് വീഡിയോ. ക്രഷ്മിക എന്ന പേരിലുള്ള രശ്മികയുടെ ഫാന്‍ പേജിലാണ് വീഡിയോ പ്രത്യക്ഷപ്പെട്ടത്.

ഇത് ആദ്യമായല്ല, ഒരു നടന്റെ മുഖം ഒറിജിനലിനൊപ്പം മോര്‍ഫ് ചെയ്യുന്നത്. നേരത്തെ, അന്തരിച്ച നടന്‍ സുശാന്ത് സിംഗ് രാജ്പുതിന്റെ നിരവധി മോര്‍ഫ് വീഡിയോകള്‍ സോഷ്യല്‍ മീഡിയയില്‍ വൈറലായിരുന്നു. അതേസമയം, ഡീപ്പ്‌ഫേക്ക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച് നിര്‍മ്മിച്ച വീഡിയോ വൈറലായതിന് പിന്നാലെ സമാന കേസുകള്‍ വീണ്ടും റിപ്പോര്‍ട്ട് ചെയ്തിരുന്നു.

ബോളിവുഡ് നടിമാരായ ആലിയ ഭട്ട്, കിയാര അദ്വാനി, കാജോള്‍, ദീപിക പദുക്കോണ്‍ തുടങ്ങിയവരുടെയും മറ്റുള്ളവരുടെയും വ്യാജ വീഡിയോകളും ചിത്രങ്ങളും നിര്‍മ്മിച്ചതായാണ് കണ്ടെത്തല്‍. സംഭവം പിടിക്കപ്പെട്ടതോടെ ഉപയോക്താവ് തന്റെ അക്കൗണ്ട് ഡീലിറ്റ് ചെയ്തിരുന്നു. ബൂം ലൈവ് റിപ്പോര്‍ട്ട് അനുസരിച്ച്, മുമ്പ് @രൃമ്വ്യമവെളമി എന്നറിയപ്പെട്ടിരുന്ന ഒരു എക്‌സ് അക്കൗണ്ടാണ് ഇതിന് പിന്നില്‍.

എഐ സാങ്കേതിക വിദ്യ ഉപയോഗിച്ച് അക്കൗണ്ടിന്റെ ഉടമ താരങ്ങളുടെത് എന്ന് തോന്നിക്കുന്ന അശ്ലീല വിഡിയോ പങ്കുവെച്ചത്. ഇത്തരത്തിലുള്ള 39 പോസ്റ്റുകളാണ് അക്കൗണ്ടില്‍ ഉണ്ടായിരുന്നത്. സമാനമായ നാല് അക്കൗണ്ടുകള്‍ കൂടി കണ്ടെത്തിയിട്ടുണ്ട്. ഡീപ്‌ഫേക്ക് ട്രെന്‍ഡ് ബോളിവുഡിലെ പ്രമുഖരെ മാത്രമല്ല ബാധിച്ചിരിക്കുന്നത്. ഒരു പരസ്യത്തില്‍ തന്റെ ശബ്ദം ക്ലോണ്‍ ചെയ്തതിന് എഐ ക്ലോണ്‍ ആപ്പിനെതിരെ കേസ് ഫയല്‍ ചെയ്ത് ഹോളിവുഡ് സൂപ്പര്‍സ്റ്റാര്‍ സ്‌കാര്‍ലറ്റ് ജോഹാന്‍സെന്‍ രംഗത്തെത്തിയിരുന്നു.

വ്യക്തിയുടെ മുഖത്തെ സവിശേഷതകള്‍, ഭാവങ്ങള്‍, ശബ്ദ പാറ്റേണുകള്‍, ടാര്‍ഗെറ്റ് ചെയ്ത വ്യക്തിക്ക് പ്രത്യേകമായുള്ള മറ്റ് സവിശേഷതകള്‍ ഉണ്ടെങ്കില്‍ അത് എന്നിവ തിരിച്ചറിയുകയും മാപ്പ് ചെയ്യുകയും ചെയ്യുന്നു. വീഡിയോകളിലോ ചിത്രങ്ങളിലോ മറ്റ് വ്യക്തികളിലേക്കോ ഈ പുനര്‍നിര്‍മ്മിച്ച ഡാറ്റ ചേര്‍ക്കാന്‍ എഐയ്ക്ക് കഴിയും. തെറ്റായ വിവരങ്ങള്‍ പ്രചരിപ്പിക്കുക, വ്യാജവാര്‍ത്തകള്‍ സൃഷ്ടിക്കുക, ആള്‍മാറാട്ടം നടത്തുക തുടങ്ങിയവയ്ക്ക് ഇത് ഉപയോഗിക്കാനാകുമെന്നത് ആശങ്കകള്‍ വര്‍ധിപ്പിക്കുന്നുണ്ട്.

Vijayasree Vijayasree :