ダウンロード数: 246
このアイテムのファイル:
ファイル | 記述 | サイズ | フォーマット | |
---|---|---|---|---|
djohk00838.pdf | Dissertation_全文 | 12.87 MB | Adobe PDF | 見る/開く |
yjohk00838.pdf | Abstract_要旨 | 191.76 kB | Adobe PDF | 見る/開く |
完全メタデータレコード
DCフィールド | 値 | 言語 |
---|---|---|
dc.contributor.author | Zhang, Guoxi | en |
dc.contributor.alternative | 张, 国熙 | ja |
dc.contributor.transcription | チョウ, コクキ | ja-Kana |
dc.date.accessioned | 2023-08-23T06:10:52Z | - |
dc.date.available | 2023-08-23T06:10:52Z | - |
dc.date.issued | 2023-07-24 | - |
dc.identifier.uri | http://hdl.handle.net/2433/284789 | - |
dc.language.iso | eng | - |
dc.publisher | Kyoto University | en |
dc.publisher.alternative | 京都大学 | ja |
dc.rights | 3章は1及び2に基づく。4章は3に基づく。5章は4及び5に基づく。1. G. Zhang and H. Kashima. Batch reinforcement learning from crowds. In Machine Learning and Knowledge Discovery in Databases, pages 38–51. Springer Cham, 2023. https://doi.org/10.1007/978-3-031-26412-2_3 2. G. Zhang, J. Li, and H. Kashima. Improving pairwise rank aggregation via querying for rank difference. In Proceedings of the Ninth IEEE International Conference on Data Science and Advanced Analytics, IEEE, 2022. https://doi.org/10.1109/DSAA54385.2022.10032454 3. G. Zhang and H. Kashima. Learning state importance for preference-based reinforcement learning. Machine Learning, 2023. https://doi.org/10.1007/s10994-022-06295-5 4. G. Zhang and H. Kashima. Behavior estimation from multi-source data for offline reinforcement learning. In Proceedings of the Thirty-Seventh AAAI Conference on Artificial Intelligence. AAAI Press, 2023. 5. G. Zhang, X. Yao, and X. Xiao. On modeling long-term user engagement from stochastic feedback. In Companion Proceedings of the ACM Web Conference 2023. Association for Computing Machinery, 2023. https://doi.org/10.1145/3543873.3587626 | ja |
dc.subject | Offline Reinforcement Learning | en |
dc.subject | Preference-based Reinforcement Learning | en |
dc.subject | Human-in-the-loop Reinforcement Learning | en |
dc.subject.ndc | 007 | - |
dc.title | Offline Reinforcement Learning from Imperfect Human Guidance | en |
dc.title.alternative | 不完全な人間の誘導からのオフライン強化学習 | ja |
dc.type | doctoral thesis | - |
dc.type.niitype | Thesis or Dissertation | - |
dc.textversion | ETD | - |
dc.description.degreegrantor | 京都大学 | ja |
dc.description.degreelevel | 新制・課程博士 | - |
dc.description.degreediscipline | 博士(情報学) | ja |
dc.description.degreereportnumber | 甲第24856号 | - |
dc.description.degreenumber | 情博第838号 | - |
dc.description.degreekucallnumber | 新制||情||140(附属図書館) | - |
dc.date.granted | 2023-07-24 | - |
dc.description.degreeaffiliation | 京都大学大学院情報学研究科知能情報学専攻 | - |
dc.description.degreeexamcommittee | (主査)教授 鹿島, 久嗣, 教授 河原, 達也, 教授 森本, 淳 | - |
dc.description.degreeprovision | 学位規則第4条第1項該当 | - |
dc.identifier.selfDOI | 10.14989/doctor.k24856 | - |
dcterms.accessRights | open access | - |
dc.description.degreediscipline-en | Doctor of Informatics | en |
dc.identifier.degreegrantorID | 14301 | - |
dc.description.degreegrantor-en | Kyoto University | en |
dc.description.degreeObjectType | DFAM | - |
jpcoar.contributor.Type | Supervisor | - |
jpcoar.contributor.Type | Supervisor | - |
jpcoar.contributor.Type | Supervisor | - |
jpcoar.contributor.Name | 鹿島, 久嗣 | ja |
jpcoar.contributor.Name | 河原, 達也 | ja |
jpcoar.contributor.Name | 森本, 淳 | ja |
出現コレクション: | 140 博士(情報学) |
このリポジトリに保管されているアイテムはすべて著作権により保護されています。