HI,欢迎来到学术之家,发表咨询:400-888-7501  订阅咨询:400-888-7502  股权代码  102064
0

创新监管方式防范人工智能风险

作者:魏强; 陆平人工智能技术监管方式发展风险智能产品创新google人类社会自适应能力

摘要:近年来,人工智能发展迅猛,国外的Google、微软、苹果、特斯拉,我国的百度、腾讯、阿里巴巴等,这些企业都纷纷通过自主研发、收购兼并等途径跨界进入人工智能领域。同时,随着人工智能技术的大规模应用,其安全隐患和发展风险日渐显现。大众一般认为,新技术的研发是难度最大的,应用及监管与研发相比难度就会低很多。但对于将深远影响人类社会运营方式的人工智能来说,情况或许正好相反。那么人工智能存在哪些风险?监管的难点又是什么?具体有以下三方面。产品应用后果预判难随着计算能力的不断攀升,人工智能可以计算大量的可能性,其选择空间往往大于人类,它们能够轻易地去尝试那些人类以前从未考虑的解决方案。换言之,尽管人们设计了某人工智能产品,但受限于自身的认知能力,研发者无法预见其所研发的智能产品做出的决策以及产生的效果。如果其效果与人们利益保持一致,便不会引发人们的担忧。然而,基于深度学习技术的新一代人工智能产品大都具备自学习能力和自适应能力,如果放任自流,难以保证其行为结果与大众期望始终一致。

注:因版权方要求,不能公开全文,如需全文,请咨询杂志社

互联网经济

《互联网经济》(CN:10-1255/F)是一本有较高学术价值的大型月刊,自创刊以来,选题新奇而不失报道广度,服务大众而不失理论高度。颇受业界和广大读者的关注和好评。 《互联网经济》现已更名为《数字经济》。

杂志详情