0:00 自己紹介/講演概要
8:55 AGI早期実現/Alignmentの文脈の欠如
10:20 AGI早期実現可能性
10:50 AI Alignment問題の緊急性
12:10 シンギュラリティのリスク
14:00 USA/UK/EUによる政策
14:40 AI存亡リスク≠著作権/技術的失業リスク
16:00 AI存亡リスク背景概要
18:00 効果的利他主義
21:35 最近のAI脅威論ニュース
24:10 AI Alignment/存亡リスクの文脈
29:37 AI脅威論/Alignmentの歴史
33:22 AGI/TAIのタイムライン
37:05 地雷原を駆け抜ける
41:00 X-risk
42:20 AI Alignmentの独特の困難さ
47:00 エージェントとオラクル
50:00 道具的収束論
51:35 直交仮説
55:12 Mind Design Space
58:00 AIが人類を滅亡させる理由
1:01:00 AI Doomerの気持ち
1:04:05 Specification Gaming
1:05:38 Goal Misgeneralization
1:12:15 脅威モデル(シナリオ)
1:14:00 Specificationgaming*singleton
1:14:50 GoalMisgeneralization*singleton
1:21:35 Specificationgaming*multiagent
1:23:12 GoalMisgeneralization*multiagent
1:25:15 yudkowsky,bostromはTranshumanist
1:27:35 AI脅威論の欠如の問題
1:32:30 具体的なサーバ脱走方法
1:36:30 AI Alignment研究とガバナンス
1:39:00 ス…

 68 total views,  2 views today

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です