១. ការណែនាំ និងហេតុផលដែលមគ្គុទេសក៍នេះមានសារៈសំខាន់
មគ្គុទេសក៍អំពី Generative AI សម្រាប់អង្គការសង្គមស៊ីវិល ត្រូវបានបោះពុម្ពផ្សាយដោយ បណ្តាញយុត្តិធម៌ឌីជីថល (Digital Justice Network) ក្រោមសមាគម Association for Progressive Communications (APC) នៅខែមករា ឆ្នាំ២០២៦។ មគ្គុទេសក៍នេះត្រូវបានបង្កើតឡើង ដើម្បីជួយអង្គការសង្គមស៊ីវិល (CSOs) ឲ្យយល់ដឹង និងគ្រប់គ្រង ហានិភ័យ និងផលប៉ះពាល់ ដែលពាក់ព័ន្ធនឹងការប្រើប្រាស់បច្ចេកវិទ្យា Generative AI ដូចជា ម៉ូឌែលភាសាធំៗ កម្មវិធីបង្កើតអត្ថបទ រូបភាព សម្លេង និងវីដេអូ (ឧ. ChatGPT និងឧបករណ៍ស្រដៀងគ្នា) ដោយ មិនមានគោលបំណងលើកទឹកចិត្តឲ្យប្រើប្រាស់ បច្ចេកវិទ្យាទាំងនេះឡើយ។
បច្ចុប្បន្ន មនុស្សជាច្រើននៅក្នុងវិស័យសង្គមស៊ីវិល បានចាប់ផ្តើមប្រើ Generative AI សម្រាប់ការសរសេរ ការបកប្រែ ឬការបង្កើតមាតិកា ប៉ុន្តែអង្គការភាគច្រើន មិនទាន់មានគោលនយោបាយ ឬសេចក្តីណែនាំច្បាស់លាស់ សម្រាប់ការប្រើប្រាស់បច្ចេកវិទ្យានេះទេ។ ការប្រើប្រាស់ដោយគ្មានការគ្រប់គ្រង អាចនាំឲ្យកើតមានហានិភ័យធ្ងន់ធ្ងរ ដូចជា បាត់បង់ភាពជឿជាក់ បញ្ហាសុវត្ថិភាពព័ត៌មាន និងការប៉ះទង្គិចជាមួយតម្លៃ និងបេសកកម្មរបស់អង្គការ។
២. គោលបំណង និងក្រុមគោលដៅនៃមគ្គុទេសក៍
មគ្គុទេសក៍នេះ ត្រូវបានរៀបចំឡើងសម្រាប់ អង្គការសង្គមស៊ីវិលគ្រប់ប្រភេទ រួមមាន អង្គការអភិវឌ្ឍន៍ សហគមន៍ អង្គការតស៊ូមតិ សហជីព និងបណ្តាញសកម្មជន ដែលកំពុងពិចារណា ឬកំពុងប្រើប្រាស់ កម្មវិធីបញ្ញាសិប្បនិម្មិតដើម្បីបង្កើតមាតិកា (Generative AI) ក្នុងការងាររបស់ខ្លួន។
គោលបំណងសំខាន់ៗរបស់មគ្គុទេសក៍រួមមាន៖
- ពន្យល់អំពី Generative AI និងរបៀបដំណើរការរបស់វា
- កំណត់ឱកាស និងហានិភ័យ ដែលពាក់ព័ន្ធនឹងការប្រើប្រាស់
- ផ្តល់ក្របខណ្ឌអនុវត្តជាក់ស្តែង សម្រាប់អង្គការក្នុងការរៀបចំគោលនយោបាយផ្ទាល់ខ្លួន
- លើកកម្ពស់ការពិភាក្សាផ្ទៃក្នុង ការទទួលខុសត្រូវ និងការសម្រេចចិត្តដោយផ្អែកលើគុណតម្លៃជាធំ
មគ្គុទេសក៍នេះមិនមានគោលបំណងផ្សព្វផ្សាយ ឬលើកទឹកចិត្តឲ្យអង្គការប្រើ Generative AI ទេ ប៉ុន្តែចង់លើកកម្ពសស់ការយល់ដឹងអំពីហានិភ័យ និងការប្រើប្រាស់ដោយមានទំនួលខុសត្រូវ ប្រសិនបើអង្គការជ្រើសរើសប្រើ។
៣. ការយល់ដឹងអំពី Generative AI និងផលប៉ះពាល់សង្គម
មុននឹងចូលទៅកាន់ផ្នែកគោលនយោបាយ មគ្គុទេសក៍បានពន្យល់អំពីមូលដ្ឋានគ្រឹះនៃ Generative AI៖
- Generative AI គឺជាប្រព័ន្ធដែលត្រូវបានបណ្ដុះបណ្ដាលដោយទិន្នន័យបរិមាណធំ និងអាចបង្កើតមាតិកាថ្មីៗ ដូចជា អត្ថបទ រូបភាព សម្លេង និងវីដេអូ។
- វាអាចបង្កើត ព័ត៌មានមិនត្រឹមត្រូវបែបស្រមើស្រមៃ (hallucinations) ដែលមើលទៅមានភាពជឿជាក់ ប៉ុន្តែមិនពិត។
មគ្គុទេសក៍ក៏បានរំលឹកពីផលប៉ះពាល់សង្គមសំខាន់ៗ៖
- ការបាត់បង់ភាពជឿជាក់ ប្រសិនបើអង្គការប្រើព័ត៌មានមិនត្រឹមត្រូវ
- ហានិភ័យសន្តិសុខ និងឯកជនភាព ប្រសិនបើទិន្នន័យសំខាន់ត្រូវបានផ្ទុកទៅកាន់វេទិកាពាណិជ្ជកម្ម
- ភាពលំអៀង និងការរើសអើង ដែលអាចផ្ទុយពីតម្លៃសិទ្ធិមនុស្ស
- ការរីករាលដាលព័ត៌មានក្លែងក្លាយ និង deepfakes ដែលប៉ះពាល់ដល់ទំនុកចិត្តសាធារណៈ
៤. ការបារម្ភពីហានិភ័យ និងក្រមសីលធម៌សំខាន់ៗ
មគ្គុទេសក៍បានកំណត់ហានិភ័យសំខាន់ៗ ដែលអង្គការសង្គមស៊ីវិលគួរពិចារណា៖
ក. ភាពជឿជាក់ និងគុណភាព៖ មាតិកាដែលបង្កើតដោយ AI អាចមានកំហុស ឬព័ត៌មានប្រឌិត ដែលអាចប៉ះពាល់ដល់កេរ្តិ៍ឈ្មោះអង្គការ។
ខ. សន្តិសុខ និងការការពារទិន្នន័យ: ការបញ្ចូលទិន្នន័យសម្ងាត់ ឬទិន្នន័យផ្ទាល់ខ្លួនទៅក្នុង AI អាចបង្កើតហានិភ័យធ្ងន់ធ្ងរ។
គ. ភាពលំអៀង និងការប៉ះពាល់ដល់គុណតម្លៃស្ថាប័ន: ទិន្នន័យបណ្ដុះបណ្ដាល AI អាចបង្កើតលទ្ធផលដែលរើសអើង ឬប៉ះពាល់ដល់ក្រុមងាយរងគ្រោះ។
ឃ. អំណាចរចនាសម្ព័ន្ធ និងភាពមិនស្មើភាព: ការគ្រប់គ្រងបច្ចេកវិទ្យា AI ដោយក្រុមហ៊ុនធំៗ អាចមិនស្របតាមគោលបំណងសង្គមស៊ីវិល។
៥. ក្របខណ្ឌគោលនយោបាយ និងគោលការណ៍អនុវត្ត
មគ្គុទេសក៍បានណែនាំ ក្របខណ្ឌគោលនយោបាយបត់បែន ដែលអង្គការអាចកែតម្រូវតាមបរិបទ និងតម្លៃរបស់ខ្លួន។
គោលការណ៍សំខាន់ៗរួមមាន៖
- ការការទទួលខុសត្រូវ និងការត្រួតពិនិត្យដោយមនុស្ស៖ មនុស្សគួរតែជាអ្នកទទួលខុសត្រូវចុងក្រោយចំពោះលទ្ធផល និងការសម្រេចចិត្តណាមួយដែលពាក់ព័ន្ធនឹងការប្រើប្រាស់ឧបករណ៍ AI
- តម្លាភាព និងការបង្ហាញព័ត៌មាន៖ ការប្រើប្រាស់ Generative AI គ្រប់រូបភាព ជាពិសេសនៅក្នុងមាតិកាដែលផ្សព្វផ្សាយទៅសាធារណៈ គួរតែត្រូវបានបង្ហាញឲ្យច្បាស់លាស់។
- ការការពារទិន្នន័យ និងឯកជនភាព៖ អង្គការគួរតែការពារព័ត៌មានផ្ទាល់ខ្លួន និងព័ត៌មានរសើបយ៉ាងតឹងរឹង ដោយជៀសវាងការបង្ហាញ ឬការប្រើប្រាស់ទិន្នន័យដោយមិនចាំបាច់។
- ការមិនរើសអើង៖ លទ្ធផលដែលបង្កើតឡើងដោយ AI ត្រូវតែត្រួតពិនិត្យយ៉ាងម៉ត់ចត់ ដើម្បីបង្ការការបង្កគ្រោះថ្នាក់ ឬភាពលំអៀងចំពោះក្រុមមនុស្សដែលងាយរងគ្រោះ។
- ការយល់ដឹងអំពីបរិស្ថាន៖ គួរតែពិចារណាអំពីផលប៉ះពាល់លើបរិស្ថាន ដែលបណ្តាលមកពីដំណើរការទិន្នន័យ និងការប្រើប្រាស់ធនធានកុំព្យូទ័រ។
សារៈសំខាន់នៃ មគ្គុទេសក៍នេះបានផ្តោតសំខាន់លើការបង្កើតគោលនយោបាយក្នុងអង្គការ ដោយគួរតែមាន ការចូលរួមពីបុគ្គលិក ភាគីពាក់ព័ន្ធ និងដៃគូសហការណ៍ ដើម្បីធានាថាគោលនយោបាយនោះឆ្លុះបញ្ចាំងពី បេសកកម្ម និងការប្តេជ្ញាចិត្តផ្នែកក្រមសីលធម៌របស់អង្គការ។
៦. សេចក្តីណែនាំអនុវត្ត៖ ជំហានសម្រាប់ការរៀបចំគោលនយោបាយ AI
មគ្គុទេសក៍នេះបានផ្តល់អនុសាសន៍ឲ្យអង្គការអនុវត្តតាមដំណើរការជាដំណាក់កាល ដូចខាងក្រោម៖
- ការវាយតម្លៃផ្ទៃក្នុង៖ សិក្សា និងស្ទង់មតិអំពីរបៀបដែលក្រុមការងារ និងបុគ្គលផ្សេងៗ កំពុងប្រើប្រាស់ Generative AI រួចហើយ និងកំណត់ចន្លោះខ្វះខាតក្នុងការយល់ដឹង ឬហានិភ័យដែលអាចកើតមាន។
- ការពិភាក្សាជាមួយភាគីពាក់ព័ន្ធ៖ រៀបចំការពិភាក្សារអ្នកដែលមានតួនាទីផ្សេងៗក្នុងអង្គការ ដើម្បីបង្ហាញអំពីកង្វល់ តម្រូវការ និងតម្លៃរបស់អង្គការ ដែលគួរតែយកមកពិចារណាក្នុងការរៀបចំគោលនយោបាយ។
- ការរៀបចំសេចក្តីព្រាងគោលនយោបាយ៖ ប្រើប្រាស់ក្របខណ្ឌបត់បែន ដើម្បីរៀបចំគោលនយោបាយ ដែលបង្ហាញទាំងការកាត់បន្ថយហានិភ័យ និងគោលបំណងរបស់អង្គការ។
- ការបណ្តុះបណ្តាល និងការបង្កើនការយល់ដឹង៖ ផ្តល់ការបណ្តុះបណ្តាលដល់បុគ្គលិក អំពីហានិភ័យនៃ Generative AI ការអនុវត្តប្រកបដោយសុវត្ថិភាព និងការអនុវត្តតាមធាតុសំខាន់ៗនៃគោលនយោបាយ។
- ការពិនិត្យ និងកែសម្រួលជាបន្តបន្ទាប់៖ វាយតម្លៃ និងពិនិត្យឡើងវិញគោលនយោបាយជាប្រចាំ ពេលបច្ចេកវិទ្យាបន្តអភិវឌ្ឍ និងតម្រូវការរបស់អង្គការផ្លាស់ប្តូរ។
៧. សេចក្តីពិចារណាចុងក្រោយ៖ ការចូលរួមប្រកបដោយទំនួលខុសត្រូវគឺជាគន្លឹះសំខាន់
ជំនួសឲ្យការលើកទឹកចិត្ត ឬការហាមឃាត់ការប្រើប្រាស់ Generative AI ដោយផ្ទាល់ មគ្គុទេសក៍នេះបានអំពាវនាវឲ្យមាន ការចូលរួមប្រកបដោយទំនួលខុសត្រូវ តម្លាភាព និងស្របតាមតម្លៃ ជាមួយបច្ចេកវិទ្យាទាំងនេះ។ អង្គការមិនគួរទទួលយកឧបករណ៍ AI ដោយស្វ័យប្រវត្តិនោះទេ ប៉ុន្តែគួរធ្វើការសម្រេចចិត្តដោយមានព័ត៌មានគ្រប់គ្រាន់ ផ្អែកលើ គោលដៅរបស់អង្គការ កម្រិតទទួលយកហានិភ័យ និងការប្តេជ្ញាចិត្តផ្នែកក្រមសីលធម៌។
សម្រាប់អង្គការសង្គមស៊ីវិល វិធីសាស្ត្រនេះបានផ្លាស់ប្តូរទស្សនៈពីការមើល AI ជា «ដំណោះស្រាយវេទមន្ត» ទៅជាការមើលវាជា សមត្ថភាពដែលត្រូវការការយល់ដឹងអំពីហានិភ័យ ការត្រួតពិនិត្យ និងការអនុវត្តស្របតាមសិទ្ធិមនុស្ស និងតម្លៃសង្គម។ ដោយវិធីនេះ អង្គការសង្គមស៊ីវិលអាចការពារកេរ្តិ៍ឈ្មោះ រក្សាសុវត្ថិភាពសហគមន៍ និងបន្តបំពេញបេសកកម្មរបស់ខ្លួន ដោយមិនបង្កការខូចខាតដោយអចេតនា។
ប្រភព៖ https://www.apc.org/en/pubs/generative-ai-guide-civil-society