Deepfake technology අවුරුදු කීපයක් පරණයි.ඔය අසභ්ය දර්ශන වලදී ප්රසිද්ධ නළු නිළියන්ගේ මුහුණත යොදාගෙන කරපු දර්ශන එහෙම අවුරුදු කීපයකට කලින් ඉඳන්ම තිබුණා. Gal Gadot Wonder Woman ට තෝරගත්ත කාලේ ඒ විදිහේ porn වීඩියෝ ක්ලිප් වගයක් හැමතැනම share උනා මතක ඇති. අද වෙනකොට deepfake තාක්ෂනය ඉතාම සරලව භාවිතා කරගන්න පුළුවන් මට්ටමට ඇවිත් තියෙනවා.පහුගිය මාස කීපය තුල මේක සෑහෙන දුරක් ඇවිත් තියෙනවා. උදා: Softlogic එකෙන් සුනිල් පෙරේරා වගේ අයව දාල කරපු advertisement එක වගේ
සරලව කිව්වොත් මෙකෙදි වෙන්නේ ඔයාගේ ඡායාරූපයක්,වීඩියෝ ක්ලිප් එකක්, හඬ ආදිය AI භාවිතා කරලා විකෘති කරන්න පුළුවන්. හොඳම දේ කියන්නේ මේකෙන් පුලුවන් 95% ක් ම ඇත්ත ඡායාරූපයක් විදියටම ගොඩනගන්න. දැන් තියෙනවා සරලවම deepfake audio generators එහෙමත්. ඔයාගේ කටහඬට ඉතාම සමීප මට්ටමේ වොයිස් එකක් හදන්න පුළුවන්.
Deepfake technology කියන්නේ හොඳ තාක්ෂණයක් හොඳ වැඩ වලට.තවත් ඉදිරියට දියුණු වෙවි යන තාක්ෂණයක්. හැමදේකම වගේ මේකෙත් දෙපැත්තක් තියෙනවා.
විශේෂයෙන්ම මං මේ කියන්නේ ලංකාව වගේ රටකදී මේ තාක්ෂණික භාවිතය ගැන. සරලවම කිව්වොත් දැන් වෙනකොට තියෙනවා ටෙලිග්රෑම් බොට්ලා කුමක් හෝ ඡායාරූපයක් නිරුවත් කරලා ඉමෙජ් නිර්මාණය කරන්න පුළුවන් මට්ටමේ.
මේ සඳහාම නිර්මාණය වුණු ටෙලිග්රෑම් බොට් තියෙනවා. කරන්න තියෙන්නේ අදාල ඡායාරූපය ඇතුළත් කරලා කොහොමද එන්න ඕනා කියලා දෙන්න විතරයි.
මං උදාහරණයකට හැමෝම දන්න ජෙනිෆර් ලෝරන්ස්ගේ චායාරූපයක් දුන්නම අපට නිර්මාණය කරගන්න ඕන සම්පූර්ණ නිරුවත් ඡායාරූපයක් ද, බිකිනි ඡායාරූපයක් ද, විනිවිද පේන එකක් ද, උඩ ඇඳුම් නැතිවද, යට ඇඳුම් නැතිවද, අදාල අවයව පෙන්න ද නැතිවද, මොන වර්ගයේ ඇඳුමක් ද කොහොමද කියලා තෝරලා දෙන්න විතරයි.තප්පර 5 ක් වගේ ඇතුලත සෑහෙන දුරකට ඔරිජිනල් ඉමෙජ් එකට සමාන නමුත් අසභ්ය රූපයක් ජෙනේරෙට් වෙලා එනවා.
වම් පැත්තේ තියෙන්නේ මට බුකියට දාන්න පුලුවන් මට්ටමේ ජෙනේරෙට් කරපු ඡායාරූපයක්.දකුණේ පැත්තේ තියෙන්නේ ඇත්ත ඡායාරූපය.ඔය දෙකේ වෙනස්කම් බැලූ බැල්මට හොයාගන්න පුළුවන්. වම් පැත්තේ එකේ ඉඳගෙන නෙමේ ඉන්නේ. හැබැයි වෙනත් එකකින් දකුණු පැත්තේ විදියටම ඉඳගෙන ඉන්න එකක් ජෙනේරෙට් කරලා දුන්නා. ඒක සම්පූර්ණ නිරුවත් එකක් නිසා දැම්මේ නෑ. ඒ වගේම ඕක ප්රිමියම් වර්ෂන් එකකින් කරපු එකක් නෙමෙයි.
කාගේ හරි ෆොටෝ එකක් අරන් එඩිට් කරනවා නම් වැඩේ දන්නේ දන්න එකා විතරයි. දැන් මේ වගේ බොට්ල නිසා කොල්ලයි බල්ලයි දෙන්නටම මේ වගේ දෙයක් හදාගන්න පුළුවන්.
මේ ඔක්කොම ෆ්රී ට්රයල් වලදී සෑහෙන තාත්වික විදියකට ගන්න පුළුවන් නම් ප්රිමියම් වර්ෂන් එකකින් 100% ක් ම වගේ ඉතාම තාත්වික විදියට හදන්න පුළුවන් ඇති.
මේක කෙල්ලන්ට විතරක් නෙමේ කොල්ලන්ට උනත් පොදුයි. සමාජ මාධ්යය තුළ පලකරන පින්තුරක් අරගෙන ඕන අසහනකාරෙයක්ට ඒක අසභ්ය විදියට හදලා එළියට දාන්න පුලුවන්. ඒ වගේම ඕනම ආයතනයක ප්රධානියෙක්ව, ආගමික පූජකයෙක්, ගුරුවරයෙකව වගේ සමාජයේ යම් පිළිගැනීමක් තියෙන ඕනම කෙනෙක්ගේ ඡායාරූපයක් නිර්මාණය කරලා මෙහෙම දාන්න පුළුවන්. ඒ වගේ කෙනේක්ගේ මෙහෙම රූපයක් එළියට ආපුවම මුලින්ම ජනගත වෙන්නේ ඇත්ත එකක් ද බොරු එකක් ද කියන එකේ නෙමේ. ඕක අත්දැකීමක් තියෙනවා ඉස්කෝලෙ යන දවස්වල අපේ මිස් කෙනෙක්ගේ ෆොටෝ දාලා බිකිනි ඇඳන් ඉන්න ෆොටෝ ටිකක් එඩිට් කරලා කව්රු හරි හැම පන්තියකම වගේ දාලා තිබුණා. ඒ නම් ෆොටෝශෝප් වලින් හදපු එකක්.
විශේෂයෙන්ම මේක ගොඩක්ම බලපාන්නේ කෙල්ලන්ට. ඒකෙනුත් ඔය ලීක් කරගන්න හිතලවත් නැති අහිංසක කෙල්ලන්ට.
මේ වගේ තමන්ගේ පින්තූරයක් අසභ්ය විදියට නිර්මාණය කරලා පළ කරලා හෝ බ්ලැක් මේල් කිරීමක් කරොත් කෙනෙක්ට කියන්න පුළුවන් ඕක deepfake නිසා ගණන් ගන්න දෙයක් නෑ කියලා.
ඒ වගේම ඇත්තම ලිංගික දර්ශනයක් ලීක් වුණත් ඒකත් AI deepfake වලින් හදපු එකක් කියලා කියන්න පුළුවන් වෙන එක වාසියක් කියලා සමහර අය කියනවා. ඕක පුද්ගලානුබද්ද දෙයක්.
මොකද හැම කෙල්ල කොල්ලම ලීක් කරගන්නේ නෑ. ලීක් කරගන්න එකාට ගානක් නැති වුණාට ලීක් කරගන්න තුන් හිතකින් වත් නැති එකෙක්ට ඔහොම එකක් නිර්මාණය වුණොත් සෑහෙන කේස්.
පින්තූර විතරක් නෙමේ. විඩීයෝ වගේම සෑහෙන දුරකට කටහඬත් මේ විදියට හදාගන්න දැන් පුළුවන්. ඒ විදියටම කටහඬ දාලා අසභ්ය වීඩියෝ ක්ලිප් එකක් නිර්මාණය වෙලා තිබිලා පහුවදාට ඒ කොල්ලා හෝ කෙල්ලො suicide කරගෙන තිබ්බොත් වැඩක් නෑ.
ඒ වගේ අවස්ථාවකදී මේවාට ප්රතිචාරය දක්වන්නේ කොහොමද,නීතිමය ක්රියාමාර්ග ගන්න අදාල ආයතන දැනුවත් කරන්නේ කොහොමද කියලා දැනගෙන ඉන්න එක කොයිකටත් හොඳයි..
පිහිය අඹ කපන්න ගන්නවා නම් හොඳයි. Beli කපන්න ගත්තොත් අවුල්. විශේෂයෙන් දකුණු ආසියාතික රටවලදී මේ වගේ දේකට මුහුණ දෙන ගැහැණු ළමයා හෝ පිරිමි ළමයාට සෑහෙන මානසික පීඩනයකට ගොදුරු වෙන්න පුළුවන්.
Pasindu Herath • ශ්රී කොම්