發布日期:2022-10-09 點擊率:91
深度神經網絡已經掌握了解決各種問題的方法——從識別、推理圖像中的物體,到成為“圍棋上帝”。隨著這些任務變得越來越復雜,神經網絡摸索出來的解決方法也變得越來越繁瑣。
因為這個系統太復雜了,即使是設計該系統的工程師可能也無法分析出它發出某一指令的原因。當然,你也不能強求這個神經網絡能夠給出它下達每一個指令的原因:目前為止還沒有一套能夠讓 AI 自己解釋自己行為的系統。
實際上,這就是人工智能領域著名的“黑盒子”問題,隨著神經網絡在現實世界中的應用越來越廣泛,對這一問題的研究也開始變得無比重要。對此,《麻省理工科技評論》曾以“人工智能核心地帶的黑暗秘密”為題刊發專題文章,來深入探討神經網絡的不可解釋性問題。
圖丨《麻省理工科技評論》關于人工智能的“黑盒子”問題的封面文章
作為人工智能研究領域的先鋒,DeepMind對“黑盒子”問題也在持續關注——目前,該團隊正著手開發更多的工具,用于解釋人工智能系統。6 月 26 日,在最新發布的一篇論文中,DeepMind提出了一種基于認知心理學來研究深度神經網絡的新方法。
下一篇: PLC、DCS、FCS三大控
上一篇: 索爾維全系列Solef?PV