Sora 2 របស់ OpenAI ពិតជាមានសមត្ថភាពខ្ពស់ក្នុងការបង្កើតវីដេអូដែលមានលក្ខណៈប្រាកដនិយមដូចទោនឹងធម្មជាតិ រហូតដល់ថ្នាក់អាច "បោកបញ្ឆោត" ភ្នែកមនុស្សបាន។ ការចាប់អារម្មណ៍នេះបានធ្វើឱ្យការដាក់ឱ្យប្រើប្រាស់របស់វាមានការប្រុងប្រយ័ត្នខ្ពស់។

OpenAI បានដាក់ឱ្យប្រើប្រាស់សាកល្បងចាប់ផ្ដើមពីថ្ងៃទី ៣០ ខែកញ្ញា ឆ្នាំ ២០២៥ការចូលប្រើប្រាស់ដំបូង គឺស្ថិតនៅក្នុងដំណាក់កាល "invite only" (សម្រាប់អ្នកដែលអញ្ជើញតែប៉ុណ្ណោះ) ដែលផ្តល់អាទិភាពដល់អ្នកប្រើប្រាស់ ChatGPT Pro នៅក្នុងសហរដ្ឋអាមេរិក (U.S.) និងកាណាដា (Canada)។ ថ្មីៗនេះ OpenAI បានដាក់ឲ្យប្រទេសដែលប្រើប្រាស់ Sora 2 ពេញលេញ គិតត្រឹមខែវិច្ឆិកា ឆ្នាំ 2025។

Sora App (ដែលរួមបញ្ចូល Sora 2) ត្រូវបានប្រកាសដាក់ឱ្យប្រើប្រាស់សម្រាប់ទាំង iOS និង Android នៅក្នុងប្រទេសទាំងនេះ៖
- សហរដ្ឋអាមេរិក
- កាណាដា
- ជប៉ុន
- កូរ៉េខាងត្បូង
- តៃវ៉ាន់
- ថៃ
- និងវៀតណាម ។

គូសបញ្ជាក់ផងដែរថា វីដេអូដែលបង្កើតដោយ Sora 2 របស់ OpenAI ពិតជាអាចចាត់ទុកជា ហានិភ័យសង្គមដ៏ធំ ដោយសារតែសមត្ថភាពរបស់វាក្នុងការបង្កើត Deepfake ប្រាកដនិយមរហូតដល់ថ្នាក់អាចបំភ័ន្តភ្នែកមនុស្សរាប់លាននាក់។

វិធីការពារកុំឲ្យចាញ់បោក Ai ជាដំបូងអ្នកត្រូវផ្ទៀងផ្ទាត់ប្រភព និងបរិបទជានិច្ច កុំជឿលើវីដេអូ ឬសំឡេងដែលមកពីប្រភពមិនស្គាល់ ហើយត្រូវរកការបញ្ជាក់ពីប្រភពព័ត៌មានដែលអាចទុកចិត្តបានផ្សេងទៀត មុននឹងទទួលយកព័ត៌មានណាមួយ។ ពិនិត្យមើលភាពមិនប្រក្រតីបច្ចេកទេស ឱ្យបានហ្មត់ចត់ ដោយផ្តោតលើលក្ខណៈពិសេសរបស់មនុស្ស ដូចជាចលនាភ្នែក និងមាត់ថាតើវាស៊ីគ្នាជាមួយសំឡេងដែរឬទេ ហើយពិនិត្យមើលថាតើពន្លឺ និងស្រមោលលើផ្ទៃមុខមើលទៅចម្លែក ឬមិនធម្មតាដែរឬទេ។ ជាចុងក្រោយត្រូវស្វែងរកសញ្ញា AI ដូចជាស្នាមទឹក (Watermark) ដែលមើលឃើញ ឬ Metadata (C2PA) លាក់កំបាំង ដែលក្រុមហ៊ុនដូចជា OpenAI បានបំពាក់លើវីដេអូដែលបានបង្កើតដោយ AI ដើម្បីតាមដានប្រភពដើមរបស់វា។
