نوې ټیکنالوژي داسې جعلې ویډیوګانې هم جوړولی شي چې له اصل سره یې توپير ګران وي

یو ماشوم د لرګي تخته په لاس کې نیولی، په خوشحالۍ سره مسک دی

ژباړه: حمیدالله حمیدي
نوې تکنالوژي په وسیله اوس کولی شئ د خلکو داسې جعلي ویډیوګانې جوړې کړي چې له اصل سره یې هېڅ توپیر ونه شي او له ژبې یې په خپل غږ داسې خبرې جعل شي، چې هېڅکله یې کړې نه وي. دغه تکنالوژي چې Deepfakes یا ژور دروغو په نوم یادېږي، د نقشې اخیستلو په طریقه د خلکو مصنوعي حرکات، فکر او غږ جعلي کولی شي.
د نړیوال تجارت او امنیت کار کوونکی اندرو ګراتو وایي، ددې تکنالوژۍ په وسیله کېدای شي د یوه کس ویډیو او خبرې داسې جوړې شي څه ډول یې چې تاسو غواړئ. ددې تکنالوژۍ په وسیله لومړی د کس عکسونه او یا پخوانۍ ویډیو د کمپیوټر لوګارېتم ته ورکول کېږي، تولیدېږي له هغه وروسته د ځانګړي کمپیوټري پروګرام په وسیله د کس د خبرو طرز د غږ اهنګ او د بدن حرکت څه ډول چې تاسو غواړئ هسې تنظیمولی شئ.
امریکایي قانون جوړونکي وېره لري چې له دې تکنالوژۍ څخه په ګټې اخیستنې به ځینې کسان او هېوادونه د امریکا متحده ایالاتو پرضد د غلطې جګړې ګټه واخلي. د بېلګې په توګه د امریکا ملي امنیت ته به ګواښ پېښ کړي او کېدای شي ان ټاکنې تر پوښتنې لاندې راولي.
د امریکا د سنا د استخباراتو غړی او جمهوري غوښتونکی مارکوروبیو وایي، چې تر اوسه پورې له دې تکنالوژۍ څخه د هنر مندانو او مشهور خلکو د بدناموولو او یا د شوخۍ لپاره کار اخیستل شوی دی. خو نوموړي اندېښنه ښودلې ده چې د امریکا دښمن هېوادونه به له دې تکنالوژۍ څخه د دوی د تخریب لپاره کار واخلي.
دغه تکنالوژي تر اوسه پورې په خپل ابتدایي حالت کې ده چې کولی شو جوړې شوې ویډیو ګانې یې له لږ دقت وروسته وپېژنو. خو وېره دلته ده چې که دغه تکنالوژي لږ نوره هم پر مختللې شي، د اصلي او جعلي ویډیو ترمنځ یې پېژندل ګران شي، نو کولی شي جدې ستونزې وزېږوي.
دا په داسې حال کې ده چې نن سبا په ټولۍ نړۍ کې د هکرانو ډلې هڅه کوي خلک د عکسونو، جعلي ویډیو ګانو او نور لارو له کبله بلک مېل کړي او خپلې غوښتنې پرې ومني.
د یادولو وړ ده چې تر اوسه پورې د هکرۍ دې ډول کړنو د ګڼ شمېر خلکو ژوند له ګواښ سره مخ کړی دی او په ډېری مواردو کې د ځان وژنې لامل هم شوې دي.