Lewis、RL、Howes、A.&Singh、S.計算の合理性:制限された効用最大化によるメカニズムと行動のリンク。 上。 Cogn。 科学 6、279–311(2014)。
Griffiths、TL、Lieder、F.&Goodman、ND認知リソースの合理的な使用:計算とアルゴリズムの間の分析のレベル。 上。 Cogn。 科学 7、217–229(2015)。
Gershman、SJ、Horvitz、EJ&Tenenbaum、JB計算の合理性:脳、心、機械の知能の収束パラダイム。 化学 349、273–278(2015)。
Newell、A.&Simon、HA 人間の問題解決 (Prentice Hall、1972年)。
Russell、S.&Norvig、P. 人工知能:現代的なアプローチ 第3版(Prentice Hall、2009年)。
Keramati、M.、Smittenaar、P.、Dolan、RJ&Dayan、P.深さ制限のある計画への習慣の適応的統合は、習慣的な目標に向けられたスペクトルを定義します。 Proc。 NatlAcad。 科学アメリカ合衆国 113、12868–12873(2016)。
Huys、QJMetal。 あなたの頭の中の盆栽の木:パブロフのシステムが決定木を剪定することによって目標指向の選択をどのように形作るか。 PLoS計算。 Biol。 8、e1002410(2012)。
Huys、QJMetal。 おおよその計画戦略の相互作用。 Proc。 NatlAcad。 科学アメリカ合衆国 112、3098–3103(2015)。
キャロウェイ、F。他。 人間の計画における認知リソースの合理的な使用。 ナットハム。 振る舞い。 https://doi.org/10.1038/s41562-022-01332-8 (2022)。
Sezener、CE、Dezfouli、A.&Keramati、M.情報値を使用して、将来の計画の深さと方向を最適化します。 PLoS計算。 Biol。 15、e1006827(2019)。
Pezzulo、G.、Donnarumma、F.、Maisto、D.&Stoianov、I.決定時および空間ナビゲーション中のバックグラウンドでの計画。 Curr。 意見。 振る舞い。 科学 29、69–76(2019)。
Google Scholar
Miller、EK&Cohen、JD前頭前野機能の統合理論。 アン。 Neurosci牧師。 24、167–202(2001)。
Shenhav、A.、Botvinick、MM&Cohen、JD制御の期待値:前帯状皮質機能の統合理論。 ニューロン 79、217–240(2013)。
Shenhav、A.etal。 精神的努力の合理的かつ機械的な説明に向けて。 アン。 Neurosci牧師。 40、99–124(2017)。
Norman、DA&Shallice、T. in 意識と自主規制 (Davidson編、RJ et al。)1–18(Plenum Press、1986)。
Holland、JH、Hollyoak、KJ、Nisbett、RE&Thagard、PR 誘導:推論、学習、発見のプロセス (MIT Press、1989)。
Newell、A.&Simon、HA経験的調査としてのコンピュータサイエンス:記号と検索。 コミュン。 ACM 19、113–126(1976)。
Daw、ND、Niv、Y.&Dayan、P.行動制御のための前頭前野と背外側線条体システム間の不確実性に基づく競争。 ナット Neurosci。 8、1704–1711(2005)。
Gläscher、J。、Daw、N.、Dayan、P.&O’Doherty、JP州対報酬:モデルベースおよびモデルフリーの強化学習の基礎となる分離可能な神経予測エラー信号。 ニューロン 66、585–595(2010)。
Ramkumar、P.etal。 効率計算のトレードオフの結果としてのチャンキング。 ナットコミュン。 7、12176(2016)。
Barsalou、LWアドホックカテゴリ。 Mem。 Cogn。 11、211–227(1983)。
サイモン、HA問題解決スキルの機能的同等性。 Cogn。 サイコール。 7、268–288(1975)。
Google Scholar
ブルックス、RAインテリジェンス代表なし。 Artif。 Intell。 47、139–159(1991)。
Google Scholar
パターマン、ML マルコフ決定過程:離散確率動的計画法 (John Wiley&Sons、1994)。
ベルマン、R。 動的計画法 (Princeton Univ。Press、1957)。
Leong、YC、Radulescu、A.、Daniel、R.、DeWoskin、V.&Niv、Y.多次元環境における強化学習と注意の間の動的相互作用。 ニューロン 93、451–463(2017)。
ヒントン、GE対照的な発散を最小限に抑えることによる専門家のトレーニング製品。 ニューラル計算。 14、1771〜1800(2002)。
Whiteley、L.&Sahani、M.ベイジアンフレームワークでの注意。 前面。 ハム。 Neurosci。 6、100(2012)。
Lieder、F.&Griffiths、TLリソース-合理的な分析:限られた計算リソースの最適な使用として人間の認知を理解する。 振る舞い。 脳科学。 43、e1(2020)。
Google Scholar
Yoo、AH、Klyszejko、Z.、Curtis、CE&Ma、WJワーキングメモリリソースの戦略的割り当て。 科学担当者 8、16162(2018)。
Grünwald、P。最小記述長に基づくモデル選択。 J.数学。 サイコール。 44、133–152(2000)。
Gabaix、X.限定合理性のスパース性ベースのモデル。 QJEcon。 129、1661〜1710(2014)。
マー、D。 ビジョン:視覚情報の人間の表現と処理に関する計算による調査 (WH Freeman、1982)。
アンダーソン、JR 思考の適応性 (Lawrence Erlbaum Associates、1990)。
Gershman、SJ後継者の表現:その計算論理と神経基盤。 J.ニューロサイエンス。 38、7193〜7200(2018)。
Stachenfeld、KL、Botvinick、MM&Gershman、SJ予測マップとしての海馬。 ナット Neurosci。 20、1643〜1653(2017)。
Tversky、B.&Hemenway、K.オブジェクト、パーツ、およびカテゴリ。 J.Exp。 サイコール。 113、169–193(1984)。
Tenenbaum、JB、Kemp、C.、Griffiths、TL&Goodman、ND心を育てる方法:統計、構造、抽象化。 化学 331、1279–1285(2011)。
Nassar、MR&Frank、MJ獣を飼いならす:認知の計算モデルから一般化可能な知識を抽出します。 Curr。 意見。 振る舞い。 科学 11、49–54(2016)。
サットン、RS&バルト、AG 強化学習:はじめに (MIT Press、2018年)。
Parr、R.&Russell、S.inProc。 ニューラル情報処理システムの進歩 (Jordan、MI et al。編)10(MIT Press、1997)。
Virtanen、P.etal。 SciPy 1.0:Pythonでの科学計算のための基本的なアルゴリズム。 ナットメソッド 17、261–272(2020)。
ハワード、RA 動的計画法とマルコフ法 (MIT Press、1960年)。
Barto、AG、Bradtke、SJ&Singh、SPリアルタイム動的計画法を使用して行動することを学ぶ。 Artif。 Intell。 72、81–138(1995)。
Google Scholar
Bonet、B.&Geffner、H.ラベル付きRTDP:リアルタイム動的計画法の収束を改善します。 の Proc。 計画と自動スケジューリングに関する国際会議 巻 3(ed。Giunchiglia、E.)12–21(AAAI Press、2003)。
ハンセン、EA&ジルバースタイン、S。LAO∗:ループのある解を見つけるヒューリスティック検索アルゴリズム。 Artif。 Intell。 129、35–62(2001)。
Hart、PE、Nilsson、NJ&Raphael、B.最小コストパスのヒューリスティックな決定の正式な基礎。 IEEETrans。 Syst。 科学サイバン。 4、100–107(1968)。
Google Scholar
Momennejad、I.etal。 人間の強化学習における後継者の表現。 ナットハム。 振る舞い。 1、680–692(2017)。
ハリス、CR他。 NumPyを使用した配列プログラミング。 自然 585、357–362(2020)。
Russek、EM、Momennejad、I.、Botvinick、MM、Gershman、SJ&Daw、ND予測表現は、モデルベースの強化学習をモデルフリーメカニズムにリンクできます。 PLoS計算。 Biol。 13、e1005768(2017)。
Solway、A.etal。 最適な行動階層。 PLoS計算。 Biol。 10、e1003779(2014)。
Shi、J.&Malik、J.正規化されたカットと画像のセグメンテーション。 IEEETrans。 パターンアナル。 マッハ。 Intell。 22、888–905(2000)。
Google Scholar
Gureckis、TMetal。 psiTurk:複製可能な行動実験をオンラインで実施するためのオープンソースフレームワーク。 振る舞い。 解像度メソッド 48、829–842(2016)。
De Leeuw、JR jsPsych:Webブラウザで行動実験を作成するためのJavaScriptライブラリ。 振る舞い。 解像度メソッド 47、1–12(2015)。
Bates、D.、Mächler、M。、Bolker、B.&Walker、S.lme4を使用した線形混合効果モデルのフィッティング。 J.Stat。 Softw。 67、1–48(2015)。
Google Scholar
rpy2コントリビューター。 rpy2 バージョン3.3.6。 (2020); https://rpy2.github.io/
The post 人々は計画するために単純化された心象表現を構築します appeared first on Gamingsym Japan.