បើទោះបីជាសព្វថ្ងៃនេះ ChatGPT ជាវេទិកាបញ្ញាសិប្បនិម្មិតមួយ ដែលទទួលបានការគាំទ្រ និងពេញនិយមខ្លាំងនៅទូទាំងពិភពលោកក៏ពិតមែន ប៉ុន្តែត្រូវដឹងថាយើងមិនអាចចេះតែប្រើ Ai ឱ្យធ្វើរឿងគ្រប់យ៉ាងពេកនោះទេ ជាពិសេសរឿងដ៏គ្រោះថ្នាក់ទាំង ៥ខាងក្រោមនេះ យោងតាមការចុះផ្សាយរបស់ CNET៖
១-ការធ្វើរោគវិនិច្ឆ័យ៖ Ai មិនមែនជាកន្លែងដែលអ្នកគួរសុំការណែនាំអំពីរោគវិនិច្ឆ័យ ឬវាយតម្លៃបញ្ហាសុខភាពរបស់អ្នកឡើយ លោកអ្នកគួរតែទៅប្រឹក្សាជាមួយគ្រូពេទ្យដែលមានជំនាញវិជ្ជាជីវៈ ដើម្បីប្រាប់ពីរោគសញ្ញានិងវិធីព្យាបាល។
២-ដោះស្រាយបញ្ហាសុខភាពផ្លូវចិត្ត៖ សុខភាពផ្លូវចិត្តពិតជាសំខាន់ខ្លាំងណាស់ បើលោកអ្នកមានអារម្មណ៍ថាខ្លួនឯងមានអាការៈមិនស្រួល គួរណាទៅពិភាក្សាជាមួយអ្នកជំនាញ ឬគ្រូពេទ្យ ដើម្បីវិនិច្ឆ័យអំពីអាការៈ។ Ai គ្រាន់តែអាចស្ដាប់នឹងសន្និដ្ឋានទៅតាមព័ត៌មានដែលវាទទួលបាន ចម្លើយរបស់ Ai អាចធ្វើឱ្យអ្នកស្មានខុសអំពីស្ថានភាពរបស់ខ្លួនឯង។
៣-រៀបផែនការហិរញ្ញវត្ថុ ឬផែនការពន្ធ ផ្ទាល់ខ្លួន៖ លោកអ្នកអាចពឹងឱ្យ Ai បង្ហាញអំពីគម្រូនៃផែនការហិរញ្ញវត្ថុ តែមិនគួរឱ្យវារៀបចំផែនការផ្ទាល់ខ្លួនដែលមានតួលេខជាក់លាក់ឡើយ ព្រោះរឿងហិរញ្ញវត្ថុគឺជារឿងផ្ទាល់ខ្លួន មិនគួរត្រូវបានបញ្ចេញព័ត៌មានទៅក្រៅនោះទេ។
៤-ដោះស្រាយការប្រឡងសំខាន់ៗ៖ Ai អាចជំនួយដល់ការរៀន ប៉ុន្តែលោកអ្នកមិនគួរយកវាទៅប្រើសម្រាប់ការប្រឡងសំខាន់ៗ ដូចជា Mid-Term ឬ Final ឡើយ ព្រោះគ្រូសម័យឥឡូវគាត់អាចនឹងកាត់ពិន្ទុរបស់អ្នក ព្រោះគាត់ក៏អាចមើលដឹងថា ចម្លើយបែបណាមនុស្សឆ្លើយ ឬ បែបណាដែល Ai ឆ្លើយ។
៥-តាមដានព័ត៌មានថ្មីៗ និងទាន់ហេតុការណ៍៖ ដោយសារតែ Ai មានសមត្ថភាពប្រមូលផ្ដុំព័ត៌មានទាំងអស់ ដែលគេដាក់បញ្ចូលលើ Internet ហេតុនេះវាក៏អាចនឹងមានខ្លះមិនពិត។ ការតាមដានព័ត៌មានទាន់ហេតុការណ៍ គឺតម្រូវឱ្យអ្នកស្គាល់ពីប្រភពដែលទុកចិត្ត ទើបអាចចៀសផុតពីព័ត៌មានក្លែងក្លាយ។
ការពិតទៅនៅមានរឿងជាច្រើនទៀតដែលគួរតែចៀសវាង ជាពិសេសរឿងរ៉ាវណាដែលពាក់ព័ន្ធនឹងព័ត៌មានផ្ទាល់ខ្លួន ឬព័ត៌មានសម្ងាត់ ដើម្បីសុវត្ថិភាព។ សូមចាំថា យើងអាចប្រើ Ai ដូចជា ChatGPT អីហ្នឹង ដើម្បីជាជំនួយផ្នែកគំនិត ឬស្វែង គំនិតច្នៃប្រឌិត ដើម្បីបង្កើនផលិតភាពការងារ គួរជៀសវាងកុំឱ្យ Ai ក្លាយជាអ្នកសម្រេចចិត្តជំនួសយើងគ្រប់ពេល៕