Actress
വീണ്ടും രശ്മികയുടെ ഫേക്ക് വീഡിയോ; സോഷ്യല് മീഡിയയില് വൈറല്
വീണ്ടും രശ്മികയുടെ ഫേക്ക് വീഡിയോ; സോഷ്യല് മീഡിയയില് വൈറല്
അടുത്തിടെയാണ് നടി രശ്മിക മന്ദാനയുടെ ഒരു ‘ഡീപ്ഫേക്ക്’ വീഡിയോ വൈറലായി വന് വിവാദം സൃഷ്ടിച്ചിരുന്നു. സാറ പട്ടേല് എന്ന ബ്രിട്ടീഷ് ഇന്ഫ്ല്യൂവെന്സറുടെ വീഡിയോയില് രശ്മികയുടെ തല ചേര്ത്താണ് വീഡിയോ വൈറലായത്. ഇതിന് പിന്നാലെ ദില്ലി വനിത കമ്മിഷന് അധ്യക്ഷ സ്വാതി മലിവാള് നല്കിയ പരാതിയില് പൊലീസ് കേസ് എടുത്തിരുന്നു.
സംഭവത്തില് മെറ്റയടക്കം സാമൂഹിക മാധ്യമ കമ്പനികളുമായി പൊലീസ് ആശയവിനിമയം തുടങ്ങിയെന്നാണ് വിവരം. അതേസമയം വീണ്ടും രശ്മികയുടെ ഒരു ഡീപ്പ് ഫേക്ക് വീഡിയോ വൈറലാകുകയാണ്, എന്നാല് ഈ ക്ലിപ്പ് ആദ്യത്തെ വൈറല് വീഡിയോ പോലെ അശ്ലീലമെന്ന് പറയാന് പറ്റില്ല. മറ്റൊരു പെണ്കുട്ടിയുടെ മുഖത്ത് രശ്മികയുടെ മുഖം മോര്ഫ് ചെയ്ത രീതിയിലാണ് വീഡിയോ. ക്രഷ്മിക എന്ന പേരിലുള്ള രശ്മികയുടെ ഫാന് പേജിലാണ് വീഡിയോ പ്രത്യക്ഷപ്പെട്ടത്.
ഇത് ആദ്യമായല്ല, ഒരു നടന്റെ മുഖം ഒറിജിനലിനൊപ്പം മോര്ഫ് ചെയ്യുന്നത്. നേരത്തെ, അന്തരിച്ച നടന് സുശാന്ത് സിംഗ് രാജ്പുതിന്റെ നിരവധി മോര്ഫ് വീഡിയോകള് സോഷ്യല് മീഡിയയില് വൈറലായിരുന്നു. അതേസമയം, ഡീപ്പ്ഫേക്ക് സാങ്കേതികവിദ്യ ഉപയോഗിച്ച് നിര്മ്മിച്ച വീഡിയോ വൈറലായതിന് പിന്നാലെ സമാന കേസുകള് വീണ്ടും റിപ്പോര്ട്ട് ചെയ്തിരുന്നു.
ബോളിവുഡ് നടിമാരായ ആലിയ ഭട്ട്, കിയാര അദ്വാനി, കാജോള്, ദീപിക പദുക്കോണ് തുടങ്ങിയവരുടെയും മറ്റുള്ളവരുടെയും വ്യാജ വീഡിയോകളും ചിത്രങ്ങളും നിര്മ്മിച്ചതായാണ് കണ്ടെത്തല്. സംഭവം പിടിക്കപ്പെട്ടതോടെ ഉപയോക്താവ് തന്റെ അക്കൗണ്ട് ഡീലിറ്റ് ചെയ്തിരുന്നു. ബൂം ലൈവ് റിപ്പോര്ട്ട് അനുസരിച്ച്, മുമ്പ് @രൃമ്വ്യമവെളമി എന്നറിയപ്പെട്ടിരുന്ന ഒരു എക്സ് അക്കൗണ്ടാണ് ഇതിന് പിന്നില്.
എഐ സാങ്കേതിക വിദ്യ ഉപയോഗിച്ച് അക്കൗണ്ടിന്റെ ഉടമ താരങ്ങളുടെത് എന്ന് തോന്നിക്കുന്ന അശ്ലീല വിഡിയോ പങ്കുവെച്ചത്. ഇത്തരത്തിലുള്ള 39 പോസ്റ്റുകളാണ് അക്കൗണ്ടില് ഉണ്ടായിരുന്നത്. സമാനമായ നാല് അക്കൗണ്ടുകള് കൂടി കണ്ടെത്തിയിട്ടുണ്ട്. ഡീപ്ഫേക്ക് ട്രെന്ഡ് ബോളിവുഡിലെ പ്രമുഖരെ മാത്രമല്ല ബാധിച്ചിരിക്കുന്നത്. ഒരു പരസ്യത്തില് തന്റെ ശബ്ദം ക്ലോണ് ചെയ്തതിന് എഐ ക്ലോണ് ആപ്പിനെതിരെ കേസ് ഫയല് ചെയ്ത് ഹോളിവുഡ് സൂപ്പര്സ്റ്റാര് സ്കാര്ലറ്റ് ജോഹാന്സെന് രംഗത്തെത്തിയിരുന്നു.
വ്യക്തിയുടെ മുഖത്തെ സവിശേഷതകള്, ഭാവങ്ങള്, ശബ്ദ പാറ്റേണുകള്, ടാര്ഗെറ്റ് ചെയ്ത വ്യക്തിക്ക് പ്രത്യേകമായുള്ള മറ്റ് സവിശേഷതകള് ഉണ്ടെങ്കില് അത് എന്നിവ തിരിച്ചറിയുകയും മാപ്പ് ചെയ്യുകയും ചെയ്യുന്നു. വീഡിയോകളിലോ ചിത്രങ്ങളിലോ മറ്റ് വ്യക്തികളിലേക്കോ ഈ പുനര്നിര്മ്മിച്ച ഡാറ്റ ചേര്ക്കാന് എഐയ്ക്ക് കഴിയും. തെറ്റായ വിവരങ്ങള് പ്രചരിപ്പിക്കുക, വ്യാജവാര്ത്തകള് സൃഷ്ടിക്കുക, ആള്മാറാട്ടം നടത്തുക തുടങ്ങിയവയ്ക്ക് ഇത് ഉപയോഗിക്കാനാകുമെന്നത് ആശങ്കകള് വര്ധിപ്പിക്കുന്നുണ്ട്.
