អន្តរជាតិ
អ្នកស្រាវជ្រាវកំពូលថា រដ្ឋាភិបាលនិងក្រុមហ៊ុនគួរចំណាយបន្ថែមលើសុវត្ថិភាពនៃប្រព័ន្ធបញ្ញាសិប្បនិម្មិត ឬ AI
28, Oct 2023 , 8:30 am        
រូបភាព
ក្បាលមនុស្សដែកធ្វើពីគ្រឿងបន្លាស់ម៉ូតូដែលតំណាងឱ្យបញ្ញាសិប្បនិម្មិត ត្រូវបានដាក់បង្ហាញនៅទីក្រុង Essen ប្រទេសអាល្លឺម៉ង់ ថ្ងៃទី២៩ ខែវិច្ឆិកា ឆ្នាំ២០១៩។
ក្បាលមនុស្សដែកធ្វើពីគ្រឿងបន្លាស់ម៉ូតូដែលតំណាងឱ្យបញ្ញាសិប្បនិម្មិត ត្រូវបានដាក់បង្ហាញនៅទីក្រុង Essen ប្រទេសអាល្លឺម៉ង់ ថ្ងៃទី២៩ ខែវិច្ឆិកា ឆ្នាំ២០១៩។
ដោយ: VOA
ក្រុមហ៊ុនបញ្ញាសិប្បនិម្មិត ឬ AI និងរដ្ឋាភិបាលមួយចំនួនគួរតែបម្រុងទុកថវិកាយ៉ាងហោចណាស់ ១ភាគ៣ នៃថវិកាអភិវឌ្ឍន៍និងស្រាវជ្រាវបច្ចេកវិទ្យា AI របស់ពួកគេ ដើម្បីធានាពីសុវត្ថិភាពនិងការប្រើប្រាស់ប្រកបដោយក្រមសីលធម៌នៃប្រព័ន្ធទាំងនេះ។ នេះបើតាមការលើកឡើងរបស់អ្នកស្រាវជ្រាវជាន់ខ្ពស់មួយចំនួនស្តីពីបច្ចេកវិទ្យាបញ្ហាសិប្បនិម្មិត នៅក្នុងរបាយការណ៍មួយ ដែលបានចេញផ្សាយកាលពីថ្ងៃទី២៤ ខែតុលាកន្លងទៅ ហើយដែលត្រូវបានទីភ្នាក់ងារសារព័ត៌មាន Reuters ដកស្រង់ផ្សាយបន្ត។

 
របាយការណ៍នេះ ដែលត្រូវបានចេញផ្សាយមួយសប្តាហ៍ មុនពេលសន្និសីទកំពូលអន្តរជាតិស្តីពីសុវត្ថិភាពនៃបញ្ញាសិប្បនិម្មិត ឬ AI ក្នុងទីក្រុងឡុងដ៍ចក្រភពអង់គ្លេសនោះ បានដាក់ចេញនូវវិធានការមួយចំនួន ដែលរដ្ឋាភិបាលនិងក្រុមហ៊ុននានា គួប្រកាន់យកដើម្បីដោះស្រាយពីហានិភ័យដែលកើតចេញពីបច្ចេកវិទ្យាបញ្ញាសិប្បនិម្មិតនេះ។
 
«រដ្ឋាភិបាលក៏គួរដាក់ចេញនូវបទបញ្ញតិដែលថា ក្រុមហ៊ុននានាត្រូវទទួលខុសត្រូវតាមផ្លូវច្បាប់ ដល់ការធ្វើឱ្យមានគ្រោះថ្នាក់ ដោយសារតែប្រព័ន្ធបញ្ញាសិប្បនិម្មិតរបស់ពូកគេ ដែលអាចមើលឃើញនិងរាំងខ្ទប់បានជាមុននោះ»។ នេះបើតាមការលើកបញ្ជាក់នៃក្រុមអ្នកសរសេររបាយការណ៍នេះ ដែល៣នាក់ជាអ្នកទទួលបានពានរង្វាន់ Turing Award ម្នាក់ជាជ័យលាភីរង្វាន់ណូបែល និងជាច្រើននាក់ទៀត ជាអ្នកសិក្សាស្រាវជ្រាវកំពូលនៃបច្ចេកវិទ្យាសិប្បនិម្មិត ឬ AI។
 
បច្ចុប្បន្ននេះ នៅមិនទាន់មានបទដ្ឋានគតិយុត្តិជាមូលដ្ឋានទូលំទូលាយណាមួយនៅឡើយទេ ដែលផ្តោតទៅលើសុវត្ថិភាពបញ្ញាសិប្បនិម្មិត ហើយសេចក្តីព្រាងបទបញ្ញតិមួយចំនួនដំបូងរបស់សហភាពអឺរ៉ុបនោះ នៅមិនទាន់ក្លាយជាច្បាប់នៅឡើយទេ ដោយសារសមាជិកសភានៅមិនបានឯកភាពគ្នានៅឡើយទៅលើបញ្ហាជាច្រើននោះ។
 
លោក Yoshua Bengio ដែលជាមនុស្សម្នាក់ក្នុងចំណោម៣នាក់ ដែលត្រូវគេស្គាល់ថាជាអ្នកមានចំណេះដឹងច្រើនបំផុតលើបច្ចេកវិជ្ជាបញ្ញាសិប្បនិម្មិតនេះ និយាយថា៖
«សមត្ថភាពនៃគំរូបញ្ញាសិប្បនិម្មិតនាពេលថ្មីៗនេះ គឺខ្លាំងក្លា និងមានសារៈសំខាន់ខ្លាំង ដែលចាំបាច់ត្រូវអភិវឌ្ឍន៍ដោយមានការត្រួតពិនិត្យតាមបែបប្រជាធិបតេយ្យ»។
 
លោកបន្ថែមទៀតថា៖ «ការធ្វើវិនិយោគលើសុវត្ថិភាពបញ្ញាសិប្បនិម្មិតនេះ ត្រូវតែកើតឡើងឱ្យបានឆាប់រហ័ស ពីព្រោះបញ្ញាសិប្បនិម្មិតនេះកំពុងវិវត្តន៍ទៅមុខលឿនជាងការប្រុងប្រយ័ត្នទុកជាមុន»។
 
អ្នកសរសេររបាយការណ៍ស្តីពីបញ្ញាសិប្បនិម្មិតនេះ រួមមាន លោក Geoffrey Hinton លោក Andrew Yao លោក Daniel Kahneman លោក Dawn Song និងលោក Yuval Noah Harari។
 
ចាប់តាំងពីបើកឱ្យប្រើប្រាស់គំរូបញ្ញាសិប្បនិម្មិតចេះនិពន្ធរបស់ក្រុមហ៊ុន OpenAIមក ក្រុមអ្នកសិក្សាស្រាវជ្រាវកំពូលជាច្រើននាក់ និងប្រធានក្រុមហ៊ុនល្បីឈ្មោះមួយចំនួន ដូចជាលោក Elon Muskជាដើម បានព្រមានពីហានិភ័យនៃបច្ចេកវិទ្យា AI និងបានអំពាវនាវឱ្យមានការផ្អាករយៈពេល៦ខែ ក្នុងការអភិវឌ្ឍប្រព័ន្ធបញ្ញាសិប្បនិម្មិត AI ដែលមានឥទ្ធិពលខ្លាំងទាំងនេះ។
 
ក្រុមហ៊ុនខ្លះទៀតបានជំទាស់លើរឿងនេះ ដោយនិយាយថា ពួកគេនឹងប្រឈមតម្លៃខ្ពស់ក្នុងការអនុវត្តលើរឿងនេះ ក៏ដូចជាហានិភ័យនៃការទទួលខុសត្រូវខ្ពស់ពេកផងដែរ។
 
អ្នកវិទ្យាសាស្ត្រកំព្យូទ័រអង់គ្លេស លោក Stuart Russell និយាយថា «ក្រុមហ៊ុនមួយចំនួន នឹងតវ៉ាថាវាពិបាកខ្លាំងណាស់ក្នុងការតម្រូវទៅតាមច្បាប់កំណត់នោះ។  ច្បាប់នោះនឹងបង្អាក់ភាពច្ឆៃប្រឌិតរបស់គេ។ ការតវ៉ានេះ មិនត្រឹមត្រូវទេ។ ពេលនេះ មានបទបញ្ញត្តិច្រើនលើហាងធ្វើនំប៉័ងសាន់វិចច្រើនជាងលើក្រុមហ៊ុនបញ្ញាសិប្បនិម្មិត»៕

© រក្សាសិទ្ធិដោយ thmeythmey.com