研究業績

査読付き論文など

  1. Teppei Iwata and Takeshi Shibuya, Adaptive Modular Reinforcement Learning for Robot Controlled in Multiple Environments, IEEE Access, Vol.9, pp. 103032-103043, 2021
  2. 二神廉太郎、澁谷長史, 小袖屏風画像の構図の特徴に基づく類似画像検索システムの提案, 国立歴史民俗博物館研究報告 第220集, pp.187-201, 2020
  3. 二神廉太郎, 澁谷長史, パーシステントホモロジーを用いた画像の構図の位相的な特徴量, 電子情報通信学会誌D部門, Vol.101-D, No.5, pp.769-779, 2018
  4. Takaaki Kobayashi, Takeshi Shibuya and Masahiko Morita, Q-Learning in Continuous State-Action Space with Noisy and Redundant Inputs by Using a Selective Desensitization Neural Network, Journal of Advanced Computational Intelligence and Intelligent Informatics, Vol.19, No.6, pp.825-832, 2015
  5. 小林高彰, 澁谷長史, 森田昌彦, 選択的不感化ニューラルネットを用いた連続状態行動空間におけるQ学習, 電子情報通信学会論文誌 D, Vol.J98-D, No.2, pp.287-299, 2015
  6. Youhei Kawamura, Ashraf M. Dewan, Bert Veenendaal, Masahiro Hayashi, Takeshi Shibuya, Itaru Kitahara, Hajime Nobuhara and Kento Ishii, Using GIS to develop a mobile communications network for disaster-damaged areas, International Journal of Digital Earth, Vol.7, No.4, pp.279-293, 2014
  7. 澁谷長史, 安信誠二, 報酬が周期的に変化する環境のための強化学習, 電気学会論文誌C, Vol.134, No.9, pp.1325-1332, 2014
  8. 澁谷長史, 島田慎吾,濱上知樹: 複数の位相変化量を用いる複素Profit Sharing, 計測自動制御学会論文集,vol.45, no.11, pp.597-604, 2009
  9. 澁谷長史, 濱上知樹: 複素数で表現された行動価値を用いるQ-learning, 電子情報通信学会論文誌D, vol.J91-D, no.5, pp.1286-1295, 2008
  10. T.Shibuya, T.Hamagami: A method of generalization of state space construction for multi robots with different sensor configurations, IEEJ Transactions of Electrical & Electronic Engineering, vol.3, no.4, pp.418-424, 2008
  11. 島田慎吾, 澁谷長史, 濱上知樹: 複素評価値を用いた Profit Sharing に関する研究, 情報科学技術レターズ(Information Technology Letters), pp.117-119, 2006

国際会議・国際シンポジウム

  1. SeongIn Kim, Takeshi Shibuya, Shingo Toride and Yasunori Endo, A Human-Flow Analysis Based on PCA: A Case Study on Population Data Near Railway, Proceedings of the 2022 2nd International Conference on Robotics, Automation and Artificial Intelligence(RAAI), Singapore, pp. 215-220, 2022.
  2. Shoki Kobayashi and Takeshi Shibuya, Reinforcement Learning to Efficiently Recover Control Performance of Robots Using Imitation Learning After Failure, Proceedings of the 2022 IEEE International Conference on Systems, Man, and Cybernetics, Czech Republic, pp.1147-1154, 2022.
  3. Masato Nakai and Takeshi Shibuya, Efficiency of Reinforcement Learning using Polarized Regime by Variational Autoencoder, Proceedings of the SICE Annual Conference 2022, pp.128-134, 2022.
  4. SeongIn Kim and Takeshi Shibuya, Disturbance Observable Reinforcement Learning that Compensates for Changes in Environment, Proceedings of the SICE Annual Conference 2022, pp.141-145, 2022.
  5. Takuma Ikeda and Takeshi Shibuya, Centralized Training with Decentralized Execution Reinforcement Learning for Cooperative Multi-agent Systems with Communication Delay, Proceedings of the SICE Annual Conference 2022, pp.135-140, 2022.
  6. Shoki Kobayashi and Takeshi Shibuya, Study on Reinforcement Learning Utilizing Expert Experience to Efficiently Recover Performance from Robot Failures, Proceedings of the SICE Annual Conference 2021, Japan, pp.208-211, 2021.
  7. Yuya Watabe and Takeshi Shibuya, Reinforcement Learning Algorithms for Partially Observable Environment Considering State Estimation Error Prediction, 2nd International Conference on Advanced Computing and Applications, Kolkata, India, pp.615-628, 2021.
  8. Shoki Kobayashi and Takeshi Shibuya, Reinforcement Learning Compensator Robust to the Constants of First Order Delay Elements, Proceedings of the 2020 IEEE International Conference on Systems, Man, and Cybernetics , Canada, pp.142-146, 2020.
  9. Yuki Nakamura and Takeshi Shibuya, Topological Visualization Method for Understanding the Landscape of Value Functions and Structure of the State Space in Reinforcement Learning, Proceedings of the 12th International Conference on Agents and Artificial Intelligence (ICAART2020), Valletta, Malta, pp.370-377, 2020.
  10. Noritaka Yamada and Takeshi Shibuya, Inferring Underlying Manifold of Low Density Data using Adaptive Interpolation, Proceedings of the 12th International Conference on Agents and Artificial Intelligence (ICAART2020), Valletta, Malta, pp.395-402, 2020.
  11. Rentaro Futagami, Noritaka Yamada and Takeshi Shibuya, Inferring Underlying Manifold of Data by the Use of Persistent Homology Analysis, Proceedings of the 7th International Workshop, Computational Topology in Image Context (CTIC2019), Malaga, Spain, pp.40-53, 2019
  12. Shintaro Enoki, Takeshi Shibuya and Hiroaki Yano, Classification for Sequential Data Involving Human Trial and Error, Proceedings of the SICE Annual Conference 2017, pp.1284-1289, 2017
  13. Rentaro Futagami and Takeshi Shibuya, A Method Deciding Topological Relationship for Self-Organizing Maps by Persistent Homology Analysis, Proceedings of the SICE Annual Conference 2016, pp.1064-1069, 2016
  14. Shingo Shibusawa and Takeshi Shibuya, Reinforcement Learning in the Environment Where Optimal Action Value Function Is Partly Discontinuous, Proceedings of the SICE Annual Conference 2016, pp.1545-1550, 2016
  15. Moriaki Onishi and Takeshi Shibuya, A study of efficient reinforcement learning using the relative angle of two objects, Proceedings on the 16th International Symposium on Advanced Intelligent Systems, pp.1091-1098, 2015
  16. Junki Tamaru and Takeshi Shibuya, Profit Sharing reducing the occurrences of accidents by predicted action-safety degree, Proceedings of the 10th Asian Control Conference 2015 (ASCC 2015), pp.2468-2473, 2015
  17. Syafiq Fauzi Kamarulzaman, Takeshi Shibuya, Seiji Yasunobu: A Substitute Target Learning-based Inverted Pendulum Swing-Up Control System, Joint 5th International conference of Soft Computing and Intelligent systems and 11th International Symposium on Advanced Intelligent System SCIS &ISIS 2010, pp.1~6, December, 2010, Okayama Convention Center, Okayama, Japan
  18. T.Shibuya, T.Hamagami: Reinforcement Learning in Continuous State Space with Perceptual Aliasing by using Complex-valued RBF Network, Proc. of IEEE International Conference on Systems, Man, and Cybernetics, 2010. (to be appeared)
  19. A.Yamazaki, T.Shibuya, T.Hamagami: Complex-valued reinforcement learning with hierarchical architecture, Proc. of IEEE International Conference on Systems, Man, and Cybernetics, 2010(to be appeared)
  20. T.Shibuya, T.Hamagami: Multiplied action values for complex-valued reinforcement learning, Proc. of the International Conference on Electrical Engineering, pp. I9FP0491_1-6, 2009
  21. T.Shibuya, T.Hamagami: Experimental study of the eligibility traces in complex valued reinforcement learning, Proc. of IEEE International Conference on Systems, Man, and Cybernetics, pp.1630-1635, 2007
  22. T.Hamagami, T.Shibuya, S.Shimada: Complex valued reinforcement learning, Proc. of IEEE, International Conference on Systems, Man, and Cybernetics, pp.4175-4179, 2006
  23. T.Shibuya, T.Hamagami: Constructing technique of state space with low dependence on sensor configurations for autonomous mobile robots, Proc. of the eleventh international symposium on artificial life and robotics, pp. 528-531, 2006

講演・研究会

  1. Kim SeongIn, 澁谷 長史, 取出 新吾, 遠藤 靖典: 人流データに基づく鉄道運行状況の異常検知手法の基礎的検討, 日本知能情報ファジィ学会 ファジィ システム シンポジウム 講演論文集, 38 巻, pp. 114-118, 2022
  2. 池田 琢真, 澁谷 長史: 大規模かつ部分観測性のある協調マルチエージェント系のための Control as Inference に基づく強化学習手法の基礎的検討, 知的システム研究会, SIC2022-2, pp.5-8, 2022.
  3. 市毛 竣, 澁谷 長史: エキスパートデータに含まれるノイズがGAILの性能に及ぼす影響について, 知的システム研究会, SIC2022-1, pp.1-2, 2022.
  4. 中川原 拓海, 澁谷 長史: 方策の安全性を保証する強化学習手法LBPOにおけるハイパーパラメータの影響の評価, 知的システム研究会, SIC2022-1, pp.3-6, 2022.
  5. Kim SeongIn, 澁谷 長史: 行動が変動する環境での制御性能低下を抑制する強化学習手法の基礎的な検討, 知的システム研究会, SIC2021-2, pp.61-66, 2021.
  6. 池田 琢真, 澁谷 長史: 通信に遅れがある協調マルチエージェント系のための集中学習・分散実行型強化学習手法の検討, 知的システム研究会, SIC2021-2, pp.49-54, 2021.
  7. 竹内 睦稀, 澁谷 長史: 瞬間的な報酬の低下時における適応的モジュール型強化学習エージェントの挙動に関する考察, 知的システム研究会, SIC2021-2, pp.55-60, 2021.
  8. 四ツ倉 昌輝, 澁谷 長史: 行動出力に一次遅れ要素がかかる環境のための拡張状態を用いた強化学習法, 知的システム研究会, SIC2020-2, pp.24-27, 2020.
  9. Kim SeongIn, 澁谷 長史: 行動に外乱が加わる環境で有効な模倣学習手法の基礎的な検討, 知的システム研究会, SIC2020-2, pp.28-32, 2020.
  10. 岩田 鉄平, 澁谷 長史: 複数環境で動作するアクチュエータ制御のための環境推定手法の検討, 知的システム研究会, SIC2019-2, 2019.
  11. 小林 翔樹, 澁谷 長史: 行動出力に大きな一時遅れを持つ環境における強化学習のための補償器の設計, SIC2019-2, 2019.
  12. 渡部 祐也, 澁谷 長史: 状態推定で動作するアクチュエータ制御を考慮に入れたモデルフリーPOMDPアルゴリズムの提案, SIC2019-2, 2019.
  13. 宮前 研吾, 澁谷 長史: 関係フレーム理論に基づく方策学習フレームワークの提案, 知的システム研究会, SIC2019-1, 2019.
  14. 岩田 鉄平, 澁谷 長史: 強化学習を用いたパラメータ変動を伴うアクチュエータ制御の検討, 知的システム研究会, SIC2019-1, 2019.
  15. 山田 規登, 澁谷 長史: 低密度データの背後にある多様体形状推定のための補間手法の一検討, 知的システム研究会, SIC2018-2, 2018.
  16. 中村 裕輝, 澁谷 長史: 強化学習の学習状況を把握するためのMapperを用いたシステムの提案, 知的システム研究会, SIC2018-2, 2018.
  17. 吉本 響基, 澁谷 長史: , 知的システム研究会, SIC2018-1, 2018.
  18. 水野 駿, 澁谷 長史, 川村 洋平: 畳み込みニューラルネットワークを用いたドリルビットの異常音識別に関する基礎的検討, 電気学会システム研究会, ST-17-017, 2017.
  19. 四ツ倉 昌輝, 澁谷 長史: センサのむだ時間の大きさが周期的に変化する環境のための強化学習に関する基礎検討, 知的システム研究会, SIC2017-2, 2017.
  20. 宮前 研吾, 澁谷 長史: 部分的に等しい状態行動系列を持つデモンストレーションを利用した強化学習, 知的システム研究会, SIC2017-2, 2017.
  21. 渋沢 慎吾, 澁谷 長史: 行動に一次遅れがかかる環境のための強化学習に関する一検討, 知的システム研究会, SIC2017-1, 2017.
  22. 水野 駿, 澁谷 長史: シェパーディングタスクのための群れの分離に対して頑健な強化学習の提案, 知的システム研究会, SIC2016-2, 2016.
  23. 榎 慎太郎, 澁谷 長史: 人の個体特性が変化する系列データに対してクラス識別可能なHMMの構築, 知的システム研究会, SIC2016-2, 2016.
  24. 福田 将貴, 澁谷 長史: 異常検知のためのアクティブセンシングに関する一検討, 知的システム研究会, SIC2016-1, 2016.
  25. 二神 廉太郎, 澁谷 長史: 小袖屏風画像の位相的特徴抽出に関する一検討, 電気学会システム研究会, ST-16-018, 2016.
  26. グエン バク, 澁谷 長史: 環境に適応して繰り返し動作を行うエージェントの構築に関する一検討, 第43回知能システムシンポジウム, 2016.
  27. 二神 廉太郎, 澁谷 長史: パーシステントホモロジー群の解析によるSOMの初期トポロジー決定, 知的システム研究会, SIC2015-2, 2015.
  28. 渋沢 慎吾, 澁谷 長史: 最短経路長とユークリッド距離が異なる環境における強化学習法, 知的システム研究会, SIC2015-2, 2015.
  29. 大西 杜諒, 澁谷 長史: 障害物と支援対象者の相対角を用いた効率的な強化学習法の検討, 知的システム研究会, SIC2015-1, 2015.
  30. 井上 晃誓, 澁谷 長史, 安信 誠二: 機械学習で獲得した知識を用いる知的旋回クレーン制御の提案, SIC2010, 2010.12.
  31. 呉 涛, 澁谷 長史, 安信 誠二: 移動可能領域を考慮した知的駐車制御システム, 計測自動制御学会システム・情報部門学術講演会講演論文集, pp.3B1-3_1-4, 2010
  32. 澁谷長史: 周期的に報酬が変化する環境における強化学習のための価値関数のフェザー表示に関する基礎的検討, 平成22年度 電気学会 電子・情報・システム部門大会, 2010
  33. 澁谷長史, 濱上知樹: 短期記憶をもつ強化学習エージェントの行動獲得条件について, 第37 回知能システムシンポジウム講演論文集, pp.33-36, 2010
  34. 澁谷長史, 濱上知樹: 複素強化学習における負の報酬の及ぼす影響について, 第8回情報技術フォ-ラム講演論文集II, pp.495-496, 2009
  35. 澁谷長史, 川上昌希, 濱上知樹: 確率的に表現型が決まる二倍体遺伝的アルゴリズムの連続的に変化する環境への適用, 第15回創発システムシンポジウム, P22, 2009(ポスタ-発表)
  36. 根岸弘樹, 澁谷長史, 有田秀彰: Multi-car Elevator制御 における社会的群知能の最適化, 2009年電子情報通信学会総合大会 基礎・境界講演論文集, p.220, 2009
  37. 澁谷長史, 川上昌希, 濱上知樹: 確率的に表現型が決まる二倍体遺伝的アルゴリズムの多様性維持に関する一検討, 2009年電子情報通信学会総合大会 情報・システム講演論文集, p.107, 2009
  38. 澁谷長史, 濱上知樹: 多様な文脈行動の学習をめざした複素Profit Sharing, 計測自動制御学会システム・情報部門学術講演会講演論文集, pp.569-572, 2008
  39. 有田秀彰, 澁谷長史, 濱上知樹: 連続的な状態空間における複素強化学習, 第7回情報技術フォ-ラム講演論文集II, pp.9-10, 2008
  40. 澁谷長史, 濱上知樹: POMDPs 環境における強化学習のための行動価値の複素数表現, 第14回創発システムシンポジウム, P12, 2008 (ポスタ-発表)
  41. 澁谷長史, 濱上知樹: 不完全知覚を含む環境における Q-learning の学習係数に関する一考察, 第7回情報技術フォ-ラム講演論文集II, pp.323-324, 2008
  42. 澁谷長史, 濱上知樹: 複素強化学習のための行動価値の多重化に関する実験的検討, 第35回知能システムシンポジウム講演論文集, pp.5-8, 2008
  43. 澁谷長史, 島田慎吾, 濱上知樹: 複素強化学習において行動価値を多重化する効果について, 第6回情報技術フォ-ラム講演論文集II, pp.335-336, 2007
  44. 澁谷長史, 島田慎吾, 濱上知樹: 複素強化学習を用いたAcrobotの振り上げ制御, 人工知能学会全国大会, 3D9-4, 2007
  45. 濱上知樹, 澁谷長史, 島田慎吾: 複素強化学習の基礎的検討, 自動制御連合講演会, SU9-3-2, 2006
  46. 島田慎吾, 澁谷長史, 濱上知樹: 複素評価値を用いたProfit Sharingによる強化学習, 計測自動制御学会システム・情報部門 学術講演会講演論文集, pp.48-53, 2005
  47. 澁谷長史, 濱上知樹: 複素価値関数を用いたQ-Learningの基礎的検討, 第4回情報技術フォ-ラム講演論文集II, pp.197-198, 2005
  48. 澁谷長史, 濱上知樹: 自律移動ロボットのための複素合成モデルによる状態空間の形成, 2005年電子情報通信学会総合大会 情報・システム講演論文集, p.90, 2005

特許

  1. 特願2005-254763, 澁谷長史, 濱上知樹, 「強化学習の価値関数表現方法およびこれを用いた装置」
  2. 国際出願番号:PCT/JP2006/316659, 国際・?J番号:WO/2007/029516, SHIBUYA,Takesi, HAMAGAMI,Tomoki, , "REINFORCEMENT LEARNING VALUE FUNCTION EXPRESSING METHOD AND DEVICE USING THIS" (JSTの支援による

競争的資金の獲得状況

  1. 平成19年度-平成21年度 科学研究費補助金特別研究員奨励費「分散知能実現のための頑健・高速・汎用な強化学習アルゴリズムの研究」