កិច្ច​ពិភាក្សា​អំពីអភិបាលកិច្ច​បញ្ញា​សិប្បនិម្មិត​ (AI)​ ប្រកបដោយ​ក្រមសីលធម៌​៖​ វា​មិនមែន​គ្រាន់តែ​ជា​ការ​កូដ​នោះ​ទេ​

របាយការណ៍​វាយតម្លៃ​ការ​ត្រៀមខ្លួន​សម្រាប់​បច្ចេកវិទ្យា​បញ្ញា​សិប្បនិម្មិត​ (AI)​ របស់​ប្រទេស​កម្ពុជា​ ដែល​បាន​រៀបចំ​រួចរាល់​នៅ​ក្នុង​ខែកក្កដា​ ឆ្នាំ​២០២៥​ បាន​លើក​ឡើង​ដោយ​ផ្ទាល់​អំពី​ការ​រួម​បញ្ចូល​យេ​ន​ឌ័​រ​ ដោយ​កំណត់​អំពី​គម្លាត​យេ​ន​ឌ័​រ​ដ៏​គួរ​ឱ្យ​កត់សម្គាល់​មួយ​នៅ​ក្នុង​វិស័យ​វិទ្យាសាស្ត្រ​ បច្ចេកវិទ្យា​ វិស្វកម្ម​ និង​គណិត​វិទ្យា​ (​ស្ទែ​ម​)​ និង​កម្លាំង​ពលកម្ម​ក្នុង​ AI​ ជា​បញ្ហា​ប្រឈម​ចម្បង​មួយ​របស់​ជាត​ ដោយ​មាន​ស្ត្រី​ត្រឹមតែ​ ១៦,៦៨%​ ប៉ុណ្ណោះ​ដែល​បាន​បញ្ចប់​ការ​សិក្សា​ពី​ស្ទែ​ម​ បើ​ប្រៀបធៀប​ទៅ​នឹង​បុរស​ ៨៣,៣២%​។​ ដូច្នេះ​ ការ​លុប​បំបាត់​គម្លាត​នេះ​គឺ​មាន​សារៈសំខាន់​ណាស់​ ដើម្បី​ធានា​ឱ្យ​បាន​នូវ​ភាព​យុត្តិធម៌​ និង​ការពារ​ប្រព័ន្ធ​ AI​ ពី​ការ​បន្ត​ និង​ពង្រីក​ភាព​លំអៀង​ដែល​មាន​ស្រាប់​នៅ​ក្នុង​សង្គម​។​

​កិច្ច​ពិភាក្សា​នេះ​សម្របសម្រួល​ដោយ​កញ្ញា​ Wen-Ling​ (Amy)​ Lai​ សហការី​កម្មវិធី​ និង​យុទ្ធសាស្ត្រ​នៃ​អង្គការ​ទិន្នន័យ​អំពី​ការ​អភិវឌ្ឍ​ (​អូ​ឌី​ស៊ី​)​ ជាមួយនឹង​វាគ្មិន​គឺ​ លោកស្រី​ ហ៊ា​ង​ អូ​មួយ​ នាយក​ប្រតិបត្តិ​នៃ​ក្រុមហ៊ុន​បច្ចេកវិទ្យា​ Asia​ Digital​ Technology​ Innovation​ (ADITI)​ និង​លោកស្រី​ Adrienne​ Ravez-Men​ សហ​ស្ថាបនិក​នៃ​ Global​ Innovation​ &​ Change​ បាន​ផ្តល់​នូវ​ការ​សិក្សា​ស៊ីជម្រៅ​ដ៏​សំខាន់​មួយ​ទៅ​លើ​គោលការណ៍​នៃ​អភិបាលកិច្ច​ AI​ ប្រកបដោយ​សីលធម៌​ ដែល​ត្រូវ​បាន​មើល​ជា​ពិសេស​តាម​រយៈ​តម្រង​សំខាន់ៗ​នៃ​កញ្ចក់​យេ​ន​ឌ័​រ​ និង​បរិ​យា​បន្ន​។​

ប្រធានបទ​ស្នូល​គឺ់​ “​ដើម្បី​ឱ្យ​ AI​ ក្លាយជា​កម្លាំង​សម្រាប់​ភាពល្អ​”​ ដោយ​ជំរុញ​ទាំង​និរន្តរភាព​ និង​ផល​ប៉ះពាល់​វិជ្ជមាន​សង្គម​ ពោល​គឺ​ការ​គ្រប់គ្រង​របស់​វា​ត្រូវ​ត​បាន​បង្កើត​ឡើង​ប្រកបដោយ​ភាព​បុ​រេ​សកម្ម​ មិនមែន​យោង​តាមតែ​អ្វី​ដែល​បាន​កើតឡើង​ពី​មុន​មក​នោះ​ទេ​។​ មូលដ្ឋាន​គ្រឹះ​នៃ​ក្រប​ខណ្ឌ​សីលធម៌​នេះ​ផ្អែក​លើ​សសរស្តម្ភ​ពីរ​៖​ តម្លាភាព​ និង​សុវត្ថិភាព​ខ្ពស់​។​ គំរូ​ AI​ ត្រូវ​តែ​បណ្តុះបណ្តាល​សម្រាប់​តម្លាភាព​ ពីព្រោះ​អ្នក​ប្រើប្រាស់​ អ្នក​ពាក់ព័ន្ធ​ និង​និយតករ​ត្រូវ​តែ​អាច​យល់​ពី​របៀប​ដែល​ AI​ ឈាន​ដល់​ការ​សម្រេចចិត្ត​ជាក់លាក់​មួយ​ ដោយ​ធានា​ថា​ដំណើរការ​នេះ​មិនមែន​ជា​ប្រអប់​ខ្មៅ​ស្រអាប់​ (Black​ Box)​ នោះ​ទេ​។​

​នៅ​ពេល​ដែល​អនុសាសន៍​ ឬ​ការ​សម្រេចចិត្ត​របស់​ AI​ ប៉ះពាល់​ដល់​ជីវិត​របស់​មនុស្ស​ ដោយ​រាប់​បញ្ចូល​ចាប់ពី​ការ​ដាក់​ពាក្យសុំ​ប្រាក់​កម្ចី​រហូត​ដល់​ដំណើរការ​ជ្រើសរើស​បុគ្គលិក​ ភាព​ច្បាស់លាស់​នេះ​គឺ​មាន​សារៈសំខាន់​បំផុត​សម្រាប់​ជំនឿ​ទុកចិត្ត​។​ រីឯ​សុវត្ថិភាព​ខ្ពស់​វិញ​ គឺជា​មូលដ្ឋាន​គ្រឹះ​នៃ​ការ​ទទួលខុសត្រូវ​។​ នៅ​ពេល​ដែល​ប្រព័ន្ធ​មាន​សុវត្ថិភាព​ ដំណើរការ​បញ្ចូល​និង​ប្រើប្រាស់​ទិន្នន័យ​អាច​តាមដាន​បាន​នូវ​កំហុសឆ្គង​ ភាព​លំអៀង​ ឬ​ការ​ប្រើប្រាស់​មិន​ត្រឹមត្រូវ​។​ យន្តការ​នៃ​ការ​បង្កើន​ទំនួល​ខុស​ត្រូវ​នេះ​គឺជា​កន្លែង​ដែល​គោលការណ៍​នៃ​ការ​រួម​បញ្ចូល​ពិត​ប្រាក​ដា​ចាប់ផ្តើម​ពង្រឹង​មូលដ្ឋាន​គ្រឹះ​នៃ​អភិបាលកិច្ច​ប្រកបដោយ​សីលធម៌​។​ ដោយ​ធានា​ថា​ AI​ ត្រូវ​បាន​បង្កើត​ឡើង​នៅ​លើ​ដំណើរការ​ដែល​មាន​សុវត្ថិភាព​ អាច​តាមដាន​បាន​ និង​អាច​យល់​បាន​ យើង​អាច​ធានា​ថា​ការ​ប្រើប្រាស់​របស់​វា​មាន​ភាព​យុត្តិធម៌​ មាន​ទំនួល​ខុស​ត្រូវ​ និង​មាន​សមត្ថភាព​បង្កើត​អត្ថប្រយោជន៍​សង្គម​យូរអង្វែង​។​

​ភ្លាមៗ​នោះ​ដែល​ វាគ្មិន​បាន​ព្រមាន​កុំឱ្យ​មើលឃើញ​ AI​ ថា​ជា​ដំណោះស្រាយ​ស្វយ័ត​ និង​មិន​មាន​កំហុស​។​ ពួក​គាត់​បាន​រំឭក​ពួក​យើង​ថា​ AI​ គ្រាន់តែ​ជា​ឧបករណ៍​មួយ​ប៉ុណ្ណោះ​។​ AI​ អាច​ត្រូវ​បាន​ប្រើប្រាស់​សម្រាប់​ទាំង​ក្នុង​ផ្លូវ​ល្អ​និង​អាក្រក់​។​ ការ​ពិត​នេះ​គូសបញ្ជាក់​ពី​មូលហេតុ​ដែល​ការ​ត្រួតពិនិត្យ​របស់​មនុស្ស​មាន​សារៈសំខាន់​ ហើយ​ត្រូវ​តែ​នៅ​តែ​ជា​ចំណុចកណ្តាល​នៃ​យុទ្ធសាស្ត្រ​អនុវត្ត​បញ្ញា​សិប្បនិម្មិត​ណាមួយ​។​ ដូច្នេះ​ ការ​គ្រប់គ្រង​បញ្ញា​សិប្បនិម្មិត​ប្រកបដោយ​សីលធម៌​មិន​អាច​គ្រាន់តែ​ជា​សំណុំ​នៃ​ច្បាប់​ដែល​អនុវត្ត​ចំពោះ​កូដ​ (Code)​ នោះ​ទេ​។​ វា​ត្រូវ​តែ​ដើរ​ទន្ទឹម​គ្នា​ជាមួយនឹង​ការ​បណ្តុះបណ្តាល​ឌី​ជី​ថ​ល​ដ៏​ទូលំទូលាយ​និង​ត្រឹមត្រូវ​សម្រាប់​អ្នក​ប្រើប្រាស់​។​

​មិន​ថា​ប្រព័ន្ធ​ AI​ ត្រូវ​បាន​គ្រប់គ្រង​បាន​ល្អ​ប៉ុណ្ណា​នោះ​ទេ​ ប្រតិបត្តិ​ករ​ អ្នកធ្វើការ​សម្រេចចិត្ត​ និង​អ្នក​ប្រើប្រាស់​ត្រូវ​តែ​យល់​ពី​សមត្ថភាព​ ដែន​កំណត់​ និង​របាំង​សីលធម៌​របស់​ឧបករណ៍​នេះ​។​ បើ​គ្មាន​ស្រទាប់​ត្រួតពិនិត្យ​ និង​អន្តរាគមន៍​របស់​មនុស្ស​ដែល​មានការ​អប់រំ​នេះ​ទេ​ ក្រប​ខណ្ឌ​គ្រប់គ្រង​ណាមួយ​នឹង​ប្រឈម​នឹង​ហានិភ័យ​នៃ​ការ​ចុះ​ខ្សោយ​ដោយ​កំហុស​របស់​អ្នក​ប្រើប្រាស់​ ការ​ប្រើប្រាស់​ខុស​ដោយ​ចេតនា​ ឬ​ការ​ខ្វះ​ការ​យល់​ដឹង​។​ គុណភាព​នៃ​កត្តា​មនុស្ស​កំណត់​ដោយ​ផ្ទាល់​នូវ​គុណភាព​នៃ​ផល​ប៉ះពាល់​របស់​ AI​។​ ប្រធានបទ​ស្នូល​នៃ​ការ​ពិភាក្សា​គឺ​ភាព​ចាំបាច់​នៃ​ការ​ពង្រីក​វិសាលភាព​នៃ​និយម​ន័យ​នៃ​ពាក្យ​ “​បរិ​យា​បន្ន​”​ ដែល​មិនមែន​គ្រាន់តែ​ផ្តោត​លើ​តុល្យភាព​យេ​ន​ឌ័​រ​ប៉ុណ្ណោះ​ទេ​។

វាគ្មិន​បាន​សង្កត់ធ្ងន់​ថា​ ខណៈ​ដែល​យេ​ន​ឌ័​រ​ជា​កត្តា​សំខាន់​មួយ​ដែល​ត្រូវ​ពិចារណា​នៅ​ពេល​បណ្តុះបណ្តាល​ AI​ វា​មិនមែន​ជា​កត្តា​តែ​មួយ​គត់​ដែល​ជំរុញ​ឱ្យ​មាន​ភាព​លំអៀង​ ឬ​វិសមភាព​នោះ​ទេ​។​ ដើម្បី​កសាង​ប្រព័ន្ធ​សីលធម៌​ និង​យុត្តិធម៌​ពិតប្រាកដ​ អ្នក​អភិវឌ្ឍ​ AI​ និង​អ្នក​ធ្វើ​គោលនយោបាយ​ត្រូវ​តែ​ផ្តល់​អាទិភាព​ដល់​ទិន្នន័យ​ដែល​ចាប់​យក​វិសាល​គម​ពេញលេញ​នៃ​ភាព​ចម្រុះ​របស់​មនុស្ស​។​

​វិធីសាស្ត្រ​ដ៏​ទូលំទូលាយ​នេះ​តម្រូវ​ឱ្យ​យកចិត្តទុកដាក់​ចំពោះ​ទិន្នន័យ​ដែល​ឆ្លុះ​បញ្ចាំង​ពី​សាវតារ​សង្គម​ផ្សេងៗ​គ្នា​ ឋានៈ​សេដ្ឋកិច្ច​សង្គម​ និង​ជា​សំខាន់​គឺ​ទិន្នន័យ​សម្រាប់​មនុស្ស​ដែល​មាន​អក្ខរកម្ម​ឌី​ជី​ថ​ល​ទាប​។​ នៅ​ពេល​ដែល​សំណុំ​ទិន្នន័យ​មាន​ភាព​លំអៀង​ខ្លាំង​ ពោល​គឺ​តំណាង​ច្រើន​លើ​ល​លុប​ដោយ​តែ​ប្រជាជន​ដែល​មាន​ជីវភាព​ធូរធារ​ មាន​បច្ចេកវិទ្យា​ឌី​ជី​ថ​ល​ទំនើប​ ឬ​រស់នៅ​ទីក្រុង​ នោះ​លទ្ធផល​នៃ​គំរូ​ AI​ នឹង​បង្ហាញ​ពី​ភាព​លំអៀង​ប្រឆាំង​នឹង​អ្នក​ដែល​ត្រូវ​បាន​គេ​ដាក់​ឱ្យ​នៅ​ដាច់​ដោយឡែក​ ឬ​ត្រូវ​បាន​ដក​ចេញពី​ប្រព័ន្ធ​ឌី​ជី​ថ​ល​។​

​ភាព​លំអៀង​នេះ​មាន​ភាព​ប្រថុយប្រថាន​នឹង​ការ​ចម្លង​ និង​ថែម​ទាំង​ពង្រីក​វិសមភាព​ក្នុង​ពិភព​ពិត​នៅ​ក្នុង​វិស័យ​ឌី​ជី​ថ​ល​។​ វាគ្មិន​បាន​លើក​ឡើង​នូវ​ករណី​ដ៏​មាន​ឥទ្ធិពល​មួយ​ថា​ ការ​ទទួលស្គាល់​លក្ខណៈ​ចម្រុះ​នៃ​បទ​ពិសោធន៍​របស់​មនុស្ស​ចាប់ពី​ឋានៈ​សេដ្ឋកិច្ច​រហូត​ដល់​ការ​ចូល​ប្រើ​ឌី​ជី​ថ​ល​ គឺ​មាន​សារៈសំខាន់​ដូច​គ្នា​សម្រាប់​ការ​សម្រេច​បាន​នូវ​អនាគត​ប្រកបដោយ​ចីរភាព​ និង​យុត្តិធម៌​សម្រាប់​ AI​។​

​បញ្ហា​ប្រឈម​ចម្បង​ដែល​កំណត់​ដោយ​ការ​ពិភាក្សា​ គឺ​គម្លាត​ដ៏​ធំ​រវាង​ល្បឿន​នៃ​ការ​ច្នៃប្រឌិត​ AI​ និង​ល្បឿន​នៃ​ការ​បង្កើត​អភិបាលកិច្ច​។​ បច្ចេកវិទ្យា​ច្រើន​តែ​អភិវឌ្ឍ​ក្នុង​អត្រា​អិ​ច​ស្ប៉ូ​ណ​ង់​ស្យែ​ល​ ខណៈ​ពេល​ដែល​ស្ថាប័ន​និយតកម្ម​ ច្បាប់​ និង​ក្រប​ខណ្ឌ​សីលធម៌​អភិវឌ្ឍ​ក្នុង​លឿន​យឺត​ជាង​ និង​ជាលី​នេ​អ៊ែ​រ​។​ វា​ច្បាស់​ណាស់​ដោយសារ​តែ​ការ​ច្នៃប្រឌិត​ AI​ អភិវឌ្ឍ​លឿន​ជាង​អភិបាលកិច្ច​ ទើប​វិធីសាស្ត្រ​អកម្ម​មិន​អាច​ទទួលយក​បាន​។​

ការ​ពិភាក្សា​បាន​សន្និដ្ឋាន​ថា​ វា​មាន​សារៈសំខាន់​ណាស់​សម្រាប់​យើង​ក្នុង​ការ​មើលឃើញ​ជា​មុន​អំពី​ហានិភ័យ​នៃ​បញ្ញា​សិប្បនិម្មិត​ (AI)​ និង​បង្កើត​យន្តការ​បង្ការ​ជា​មុន​។​ នេះ​ពាក់ព័ន្ធ​នឹង​ការ​បង្កើត​គោលនយោបាយ​ថាមវន្ត​ និង​មាន​ទស្សនវិស័យ​ទៅ​មុខ​ ដែល​ត្រូវ​បាន​បង្កើត​ឡើង​ជុំវិញ​គោលការណ៍​ជា​មូលដ្ឋាន​នៃ​ការ​រួម​បញ្ចូល​គ្នា​តាំង​ចំណុច​ចាប់ផ្តើម​ដំបូង​។​

​ជំនួស​ឱ្យ​ការ​រង់ចាំ​ឱ្យ​ទម្រង់​ថ្មី​នៃ​ភាព​លំអៀង​ ឬ​គ្រោះថ្នាក់​លេចឡើង​មុន​ពេល​បង្កើត​ច្បាប់​ អ្នក​ធ្វើ​គោលនយោបាយ​ និង​អ្នក​អភិវឌ្ឍន៍​ត្រូវ​តែ​គិត​ទុកជា​មុន​ពី​ផលវិបាក​ជា​អវិជ្ជមាន​ដែល​អាច​កើត​មាន​ឡើង​ទៅ​លើ​ ក្រុម​មនុស្ស​ផ្សេងៗ​គ្នា​ និង​បញ្ចូល​ការ​ការពារ​សីលធម៌​ទៅ​ក្នុង​វដ្ត​នៃ​ការ​អភិវឌ្ឍ​។​ យុទ្ធសាស្ត្រ​បង្ការ​ ការ​រួម​បញ្ចូល​ និង​តម្រង់​ទិស​ទៅ​អនាគត​នេះ​ គឺជា​មធ្យោបាយ​តែ​មួយ​គត់​ដើម្បី​ធានា​ថា​ AI​ បម្រើ​មនុស្សជាតិ​យ៉ាង​ទូលំទូលាយ​ និង​ប្រកបដោយ​យុត្តិធម៌​។​​