キーワード検索

キーワード 詳細検索

プロフィール

久野 義德 クノ ヨシノリ

所属部署名 理工学研究科 数理電子情報部門 電話番号
職名 教授 ■FAX番号
住所 埼玉県さいたま市桜区下大久保255 ■メールアドレス kuno@cv.ics.saitama-u.ac.jp
■ホームページURL http://www.cv.ics.saitama-u.ac.jp/

プロフィール

兼担研究科・学部

工学部 情報システム工学科
アンビエント・モビリティ・インターフェイス研究センター/オープンイノベーションセンター

研究分野

コンピュータビジョン
ヒューマンインタフェース
知覚情報処理・知能ロボティクス
知能機械学・機械システム
キーワード:コンピュータビジョン , ヒューマンインタフェース , ヒューマンロボットインタラクション

現在の研究課題

人間とロボットのインタラクション
キーワード:ヒューマンロボットインタラクション , 2009 - 2014
視線などの非言語行動を通じた人間とロボットのインタラクション
物体認識
キーワード:コンピュータビジョン , 2007 - 2010
自動物体認識とそれに失敗した場合に人間との対話を通じて物体を認識する対話認識の統合システム
ロボット車いす
キーワード:知能ロボット , 2006 - 2012
介護者とともに状況に応じて動く車いす

所属学会

所属学会
電子情報通信学会
情報処理学会
日本ロボット学会
計測自動制御学会
人工知能学会
日本機械学会
IEEE
ACM
電気学会

学歴

出身大学院・研究科等
1982 , 東京大学 , 博士 , 工学系研究科
1979 , 東京大学 , 修士 , 工学系研究科
出身学校・専攻等(大学院を除く)
1977 , 東京大学 , 工学部 , 卒業
取得学位
工学博士 , 東京大学 , 超音波心臓断層像のディジタル処理

受賞学術賞

2015 , Best Poster Award , 受賞論文 S. Shimizu, H. Koyasu, Y. Kobayashi, Y. Kuno, Object Pose Estimation Using Category Information from a Single Image
2014 , Best Paper Award , 受賞論文 T. Onuki, K. Ida, T. Ezure, T. Ishinoda, K. Sano, Y. Kobayashi, Y. Kuno, Designing Robot Eyes and Head and Their Motions for Gaze Communication
2013 , Best Demonstration Award , HRI2013でのデモンストレーションに対して受賞
2012 , Best Paper Award , 受賞論文 Development of a Mobile Museum Guide Robot that can Configure Spatial Formation with Visitors
2010 , 平成21年度情報処理学会論文賞
1986 , 情報処理学会学術奨励賞
情報・システムソサイエティ査読功労賞 , 平成23年06月02日

研究職歴等

研究職歴
2000 , 埼玉大学工学部教授
1993 - 2000 , 大阪大学工学部助教授
1987 - 1988 , カーネギーメロン大学客員研究員
研究職歴以外の職歴
1982 - 1993 , ㈱東芝研究開発センター

研究活動業績

研究業績(著書・発表論文等)

著書
理学・工学の散歩道I
埼玉新聞社:22-23 201211
多数

Advances in Visual Computing Part II LNCS5875
Springer 200911
George Bebis, Richard Boyle, Bahram Parvin, Darko Koracin, Yoshinori Kuno, Junxian Wang, Jun-Xuan Wang, Junxian Wang, Renato Pajarola, Peter Lindstrom, André Hinkenjann, Miguel L. Encarnação, Cláudio T. Silva, and Daniel Coming (Eds.)

Advances in Visual Computing Part II LNCS5876
Springer 200911
George Bebis, Richard Boyle, Bahram Parvin, Darko Koracin, Yoshinori Kuno, Junxian Wang, Jun-Xuan Wang, Junxian Wang, Renato Pajarola, Peter Lindstrom, André Hinkenjann, Miguel L. Encarnação, Cláudio T. Silva, and Daniel Coming (Eds.)

みんなで一緒に鑑賞するには
東信堂,芸術の生まれる場:172-179 200903
山崎敬一,山崎晶子,葛岡英明,久野義徳、 木下直之編

Intelligent Environments: Methods, Algorithms and Applications
Springer 2008
Dorothy Monekosso, Paolo Remagnino, and Yoshinori Kuno (eds.)

コンピュータビジョン:技術評論と将来展望
新技術コミュニケーションズ 1998

論文
Object Identification to Service Robots using a Mobile Interface from User’s Perspective
,Proc. 23rd International Workshop on Frontiers of Computer Vision (IW-FCV2017) 2017
Q. Zhong, H. Fukuda, Y. Kobayashi, and Y. Kuno

Object Recognition Using Size Information Based on Pre-trained Convolutional Neural Network
,Proc. Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2016) 2016
D. Hosohara, H. Fukuda, Y. Kobayashi, Y. Kuno

ミュージアムガイドロボット開発
,人と協働するロボット革命最前線・ エヌ・ティー・エス 2016
小林貴訓, 久野義徳, 山崎敬一, 山崎晶子

“I’ll Be There Next”: A Multiplex Care Robot System that Conveys Service Order Using Gaze Gestures
,ACM Transaction on Interactive Intelligent Systems,vol. Issue 4, Article No. 21:1-21 2016
K. Yamazaki, A. Yamazaki, K. Ikeda, C. Liue, M. Fukushima, Y. Kobayashi, and Y. Kuno

Material Information Acquisition for Interactive Object Recognition by Service Robots
,IIEEJ Transactions on Image Electronics and Visual Computing,vol.4, no.1:20-31 2016
M. A. Mannan, A. Lam, Y, Kobayashi, and Y. Kuno

Tracking Visitors in a Real Museum for Behavioral Analysis
,Proc. Joint 8th International Conference on Soft Computing and Intelligent Systems and 17th International Symposium on Advanced Intelligent Systems (SCIS-ISIS2016) 2016
M. G. Rashed, R. Suzuki, T. Yonezawa, A. Lam, Y. Kobayashi, and Y. Kuno

Terrain Recognition for Smart Wheelchair
,Proc. International Conference on Intelligent Computing (ICIC2016),LNCS vol. 9773:461-470 2016
S. A. Mamun, R. Suzuki, A. Lam, Y. Kobayashi, and Y. Kuno

Analysis of Multi-party Human Interaction towards a Robot Mediator
,Proc. International Symposium on Robot and Human Interactive Communication (RO-MAN2016) 2016
H. Fukuda, Y. Kobayashi, Y. Kuno, A. Yamazaki, K. Ikeda, and K. Yamazaki

Remote Monitoring and Communication System with a Doll-like Robot for the Elderly
,Proc. 42nd Annual Conference of IEEE Industrial Electronics Society (IECON2016) 2016
K. Otsu, H. Fukuda, Y. Kobayashi, and Y. Kuno

Towards Estimating Heart Rates from Video under Low Light
,Proc. International Conference on Visual Computing (ISVC2016),LNCS vol. 10073:494-503 2016
A. Lam and Y. Kuno

人間と共生するロボットのための目のデザイン
,設計工学,vol.51(no.4):205-211 2016
久野義徳

Supporting Human-Robot Interaction Based on the Level of Visual Focus of Attention
,IEEE Transactions on Human-Machine Systems,Vol.45(No.6):pp.664-675 2015
D. Das, M. G. Rashed, Y. Kobayashi, and Y. Kuno

Understanding Spatial Knowledge: An Ontology-Based Representation for Object Identification
,IIEEJ Transactions on Image Electronics and Visual Computing,Vol.3(No.2):150-163 2015
L. Cao, A. Lam, Y. Kobayashi, Y. Kuno, and D. Kachi

Facial Expression Recognition Based on Hybrid Approach
,Proc. ICIC2015, Lecture Notes in Artificial Intelligence,Vol.9227:304-310 2015
M.A, Mannan, A. Lam, Y. Kobayashi, and Y. Kuno

Network Guide Robot System Proactively Initialing Interaction with Humans Based on Their Local and Global Behaviors
,Proc. ICIC2015, Lecture Notes in Computer Science,Vol. 9220:283-294 2015
M.G. Rashed, T. Kikugawa, R. Suzuki, Y. Kobayashi, and Y. Kuno

Remote Communication Support System as Communication Catalyst for Dementia Care
,Proc. IECON2015 2015
S. Goto, Y. Matsuda, T. Kikugawa, Y. Kobayashi, and Y. Kuno

Formations for Facilitating Communication among Robotic Wheelchair Users and Companions
,Proc. International Conference on Social Robotics (ICSR2015) 2015
Y. Kobayashi, R. Suzuki, T. Yamada, Y. Kuno, K. Yamazaki, and A. Yamazaki

A Vision Based Guide Robot System: Initiating Proactive Social Human Robot Interaction in Museum Scenarios
,Proc. International Conference on Computer & Information Engineering (ICCIE 2015) 2015
M. G. Rashed, R. Suzuki, A. Lam, Y. Kobayashi, and Y. Kuno

Robust Heart Rate Measurement from Video Using Select Random Patches
,Proc. IEEE International Conference on Computer Vision (ICCV2015) 2015
A. Lam and Y. Kuno

複数同伴者とのグループコミュニケーションを考慮した複数ロボット車椅子システム
,電子情報通信学会論文誌,J98-A(1):51-62 2015
鈴木亮太, 新井雅也, 佐藤慶尚, 山田大地, 小林貴訓, 久野義徳, 宮澤怜, 福島三穂子, 山崎敬一, 山崎晶子

Evaluating Freshness of Produce Using Transfer Learning
,Korea-Japan joint Workshop on Frontiers of Computer Vision (FCV2015) 2015
A. Lam, Y. Kuno, I. Sato

Object Pose Estimation Using Category Information from a Single Image
,Korea-Japan joint Workshop on Frontiers of Computer Vision (FCV2015) 2015
S. Shimizu, H. Koyasu, Y. Kobayashi, Y. Kuno

Museum Guide Robot by Considering Static and Dynamic Gaze Expressions to Communicate with Visitors
,International Conference on Human-Robot Interaction (HRI2015) Late Breaking Report:125-126 2015
K. Sano, K. Murata, R. Suzuki, Y. Kuno, D. Itagaki, Y. Kobayashi

Toward Museum Guide Robot Proactively Initiating Interaction with Humans
,International Conference on Human-Robot Interaction (HRI2015) Late Breaking Report:1-2 2015
M. G. Rashed, R. Suzuki, A. Lam, Y. Kobayashi, Y. Kuno

Static and dynamic robot gaze expressions to communicating with humans
,Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2014) 2014
T. Onuki, T. Ezure, T. Ishinoda, Y. Kobayashi, Y. Kuno, 

Recognizing gaze pattern for human robot interaction
,International Conference on Human-Robot Interaction (HRI2014):142-143 2014
D. Das, M. G. Rashed , Y. Kobayashi, Y. Kuno

Multiple robotic wheelchair system able to move with a companion using map information
,International Conference on Human-Robot Interaction (HRI2014):286-287 2014
Y. Sato, R. Suzuki, M. Arai, Y. Kobayashi, Y. Kuno, M. Fukushima, K. Yamazaki, A. Yamazaki

Multiple Robotic Wheelchair System Considering Group Communication
,International Conference on Visual Computing (ISVC2014), Lecture Notes in Computer Science,LNCS8887:805-814 2014
R. Suzuki, T. Yamada, M. Arai, Y. Sato, Y. Kobayashi, Y. Kuno, ","

A Proactive Approach of Robotic Framework for Making Eye Contact with Humans
,Advances in Human-Computer Interaction,2014:Article ID 694046 2014
M. Hoque, Y. Kobayashi, Y. Kuno

Recognizing Groups of Visitors for a Robot Museum Guide Tour
,International Conference on Human System Interaction (HSI2014):123-128 2014
A. Kanda, M. Arai, R. Suzuki, Y. Kobayashi, Y. Kuno

Robotic Wheelchair Moving with Multiple Companions
,Internatiol Symposium on Robot and Human Interactive Communication (Ro-Man2014), :513-518 2014
M. Arai, Y. Sato, R. Suzuki, Y. Kobayashi, Y. Kuno, S. Miyazawa, M. Fukushima, K. Yamazaki, A. Yamazaki

Designing Robot Eyes and Head and Their Motions for Gaze Communication
,Intelligent Computing Theory (International Conference on Intelligent Computing (ICIC2014)), Lecture Note in Computer Science,LNCS8588:607-618 2014
T. Onuki, K. Ida, T. Ezure, T. Ishinoda, K. Sano, Y. Kobayashi, Y. Kuno

Object Recognition Based on Human Description Ontology for Service Robots
,Annual Conference of the IEEE Industrial Electronics Society (IECON2014) 2014
H. Fukuda, S. Mori, Y. Kobayashi, Y. Kuno, D. Kachi

A Mobile Guide Robot Capable of Establishing Appropriate Spatial Formations
,IEEJ Transactions on Electronics, Information and Systems,133-C(1):18-27 201301
M. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki
This paper presents a model for a mobile museum guide robot that can dynamically establish an appropriate spatial relationship with visitors during explanation of an exhibit. We began by observing and videotaping scenes of actual museum galleries where human guides explained exhibits to visitors. Based on the analysis of the video, we developed a mobile robot system able to guide multiple visitors inside the gallery from one exhibit to another. The robot has the capability to establish a type of spatial formation known as the "F-formation" at the beginning of its explanation after arriving near any exhibit, a feature aided by its ability to employ the "pause and restart" strategy at certain moments in its talk to draw the visitors' attention towards itself. The robot is also able to identify and invite any bystanders around itself into its ongoing explanation, thereby reconfiguring the F-formation. The system uses spatial information from a laser range sensor and the heads of visitors are tracked using three USB cameras. A particle filter framework is employed to track the visitors' positions and body orientation, and the orientations of their heads, based on position data and panorama images captured by the laser range sensor and the USB cameras, respectively. The effectiveness of our method was confirmed through experiments.

Object Recognition for Service Robots Based on Human Description of Object Attributes
,IEEJ Transactions on Electronics, Information and Systems,133-C(1):28-39 201301
H. Fukuda, S. Mori, K. Sakata, Y. Kobayashi and Y. Kuno
In order to be effective, it is essential for service robots to be able to recognize objects in complex environments. However, it is difficult for them to recognize objects autonomously without any mistakes in a real-world environment. Thus, in response to this challenge we conceived of an object recognition system that would utilize information about target objects acquired from the user through simple interaction. In this paper, we propose an interactive object recognition system using multiple attribute information (color, shape, and material), and introduce a robot using this system. Experimental results confirmed that the robot could indeed recognize objects by utilizing multiple attribute information obtained through interaction with the user.

Designing Robot Eyes for Gaze Communication
,19th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2013) 201301
T. Onuki, T. Ishinoda, Y. Kobayashi and Y. Kuno
Human eyes not only serve the function of enabling us “to see” something, but also perform the vital role of allowing us “to show” our gaze for non-verbal communication, such as through establishing eye contact and joint attention. The eyes of service robots should therefore also perform both of these functions. Moreover, they should be friendly in appearance so that humans may feel comfortable with the robots. Therefore we maintain that it is important to consider gaze communication capability and friendliness in designing the appearance of robot eyes. In this paper, we propose a new robot face with rear-projected eyes for changing their appearance while simultaneously realizing the sight function by incorporating stereo cameras. Additionally, we examine which shape of robot eyes is most suitable for gaze reading and gives the friendliest impression, through experiments where we altered the shape and iris size of robot eyes.

Tracking a Robot and Visitors in a Museum Using Sensor Poles
201301
T. Ohyama, E. Yoshida, Y. Kobayashi and Y. Kuno
In this paper, we propose a robot system which can take visitors on guided tours in a museum. When we consider developing a robot capable of giving a tour of an actual museum, we must implement a robot system able to measure the location and orientation of the robot and visitors using bearing sensors installed in a specific environment. Although many previous methods employed markers or tags attached to the robot to obtain positional information through cameras, it is not easy to situate sensors in the environment itself. SLAM is also used to localize the position of the robot. However, its robustness may not be sufficient when the system is deployed in an actual real-life situation since there will be many people moving freely around the robot. On the other hand, the robot needs information pertaining to both tour attendees and other visitors in the vicinity, in order to give a tour for the attendees. Therefore, we propose a new robot system which consists of simple devices such as multiple laser range finders attached to a pole. By just placing the sensor poles, we could track the location and orientation of the robot and visitors at the same time. We then conducted experiments to confirm the effectiveness and accuracy of our system.

物体形状オントロジーに基づく指示形状物体の認識
,画像電子学会誌,42(4):477-485 2013
森 智史,福田 悠人,小林 貴訓,久野 義徳,加地 大介

Effect of robot's gaze behaviors for attracting and controlling human attention
,Advanced Robotics,27(11):813-829 2013
M. Hoque, T. Onuki, Y. Kobayashi, Y. Kuno,

Object recognition for service robots through verbal interaction based on ontology
,International Symposium on Visual Computing (ISVC2013), Lecture Notes in Computer Science,8033:395-406 2013
H. Fukuda, S. Mori, Y. Kobayashi, Y. Kuno, D. Kachi

An intelligent human-robot interaction framework to control the human attention
,International Conaference on Informatics, Electronics & Vision (ICIEV) 2013
M. M. Hoque , K. Deb, D. Das, Y. Kobayashi, Y. Kuno

Observing human's face for robot's controlling his/her attention
,International Conference on Quality Control by Artificial Vision (QCAV2013):138-143 2013
D. Das, Y. Kobayashi, Y. Kuno

Tracking visitors with sensor poles for robot's museum guide tour
,International Conference on Human System Interaction (HSI 2013):645-650 2013
T. Oyama, E. Yoshida, Y. Kobayashi, Y. Kuno

How to move towards visitors: a model for museum guide robots to initiate conversation
,International Symposium on Robot and Human Interactive Communication (Ro-Man2013):587-592 2013
M. A. Yousuf , Y. Kobayashi, Y. Kuno, A. Yamazaki, K. Yamazaki

Attracting attention and establishing a communication channel based on the level of visual focus of attention
,International Conference on Intelligent Robots and Systems (IROS2013):2194-2201 2013
D. Das, Y. Kobayashi, Y. Kuno

Recognition of request through hand gesture for mobile care robots
,Annual Conference of IEEE Industrial Electronics Society (IECON2013):8304-8308 2013
T. Tabata, Y. Kobayashi, Y. Kuno,

Designing Robot Eyes for Communicating Gaze
,Interaction Studies,14(3):451-479 2013
T. Onuki, T. Ishinoda, E. Tsuburaya, Y. Miyata, Y. Kobayashi, Y. Kuno

Interaction between a Quiz Robot and Multiple Participants
,Interaction Studies,14(3):366-389 2013
A. Yamazaki, K. Yamazaki, K. Ikeda, M. Burdelski, M. Fukushima, T. Suzuki, M. Kurihara, Y. kuno, Y. Kobayashi

Enhancing Wheelchair Manoeuvrability for Severe Impairment Users
,International Journal of Advanced Robotic Systems,10:1-13 2013
11. R. Tomari, Y. Kobayashi, Y. Kuno

An Integrated Approach of Attention Control of Target Human by Nonverbal Behaviors of Robots in Different Viewing Situations
,IROS2012:1399-1406 201210
M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno

A Strategy to Enhance Visitors' Audience Participation towards a Museum Guide Robot
,IROS2012 Workshop on Human-Agent Interaction 201210
K. Ikeda, A. Yamazaki, K. Yamazaki, T. Ohyama, Y. Kobayashi and Y. Kuno
This paper presents our work designing a guide robot that explains an exhibit to multiple visitors in a museum setting. Based on ethnographic analysis of interactions between expert human guides and visitors, we adopted one of their strategies which makes all visitors participate in the guiding process by posing a question. We call this "puzzle construction strategy." Our most recent application onto the robot system is to select an “appropriate” visitor from the audience group, who would be most likely to respond productively to the guide’s question. We tested the guide robot which makes use of this strategy at an actual museum, and the results show that our robot does increase visitors' engagement and interaction with the guide, as well as interaction and engagement among visitors themselves.

Robotic Wheelchair Easy to Move and Communicate with Companions
,IROS2012 Workshop on Progress, Challenges and Future Perspectives in Navigation and Manipulation Assistance for Robotic Wheelchairs 201210
R. Suzuki, E. Takano, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki
In this paper we introduce our robotic wheelchair that can move with a companion collaboratively. Although it is desirable for wheelchair users to go out alone by operating wheelchairs on their own, they are often accompanied by caregivers or companions. In designing robotic wheelchairs, therefore, it is important to consider not only how to assist the wheelchair user but also how to reduce companions’ load and support their activities. In addition, we specially focus on thecommunications among wheelchair users and companions because the face-to-face communication is known to be effective to ameliorate elderly mental health. Moreover, a sociologist pointed out that when a wheelchair user is accompanied by a companion, the latter is inevitably seen by others as a caregiver rather than a friend. Hence, we proposed a robotic wheelchair able to move alongside a companion, and facilitate easy communication between the companion and the wheelchair user. However, the companion cannot always move alongside the wheelchair. For instance, they may step forward of the wheelchair to open a door, and they may step aside when pedestrians are approaching in narrow corridors. To cope with these situations we developed the function that the robotic wheelchair can move with a companion collaboratively depending on the situation. We currently focus on the relative position of the robotic wheelchair with respect to the companion because the relative position affects not only facilitating communication but also users’feeling of safety and reliability. In this paper, we report the latest experiment conducted on this point of view.

Robotic Wheelchair with Omni-directional Vision for Moving Alongside a Caregiver
,International conference on Intelligent Robots and Systems (IECON2012):4177-4182 201210
Recently, several robotic/intelligent wheelchairs equipped with user-friendly interfaces and/or autonomous functions to fulfill set goals have been proposed. Although wheelchair users may wish to go out alone, caregivers often accompany them. Therefore, it is important to consider how to reduce the caregivers' load while supporting their activities and facilitating communication between the caregiver and wheelchair user. Hence, we have proposed a robotic wheelchair that can move alongside a caregiver by observing his/her behavior, such as body position and orientation. This form of motion enables easy communication between the wheelchair user and the caregiver. However, in our previous system, the caregiver had to set their own initial position by tapping the touchscreen displaying the distance data image captured by a laser range sensor. In this paper, therefore, we introduce a new interface we designed by incorporating an omni-directional camera so that the accompanying caregiver can easily set the initial position by tapping his/her facial image instead. Moreover, when the system loses the accompanying caregiver due to them making an unexpected motion, it promptly re-identifies the caregiver by using color appearance cues. These functions improve the usefulness of our robotic wheelchair and heighten the possibility of our wheelchair being utilized in our daily life.

Model for Controlling a Target Human's Attention in Multi-Party Settings
,International Symposium on Robot and Human Interactive Communication(Ro-Man2012):476-483, 201209
M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno
It is a major challenge in HRI to design a social robot that is able to direct a target human's attention towards an intended direction. For this purpose, the robot may first turn its gaze to him/her in order to establish eye contact. However, such a turning action of the robot may not in itself be sufficient to make eye contact with the target person in all situations, especially when the robot and the person are not facing each other or the human is intensely engaged in a task. In this paper, we propose a conceptual model of attention control with five phases: attention attraction, eye contact, attention avoidance, gaze back, and attention shift. We conducted two experiments to validate our model in human-robot interaction scenarios.

Vision-Based Attention Control System for Socially Interactive Robots
:496-502 201209
D. Das, M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno
It is a major challenge in HRI to design a social robot that is able to direct a target human's attention towards an intended direction. For this purpose, the robot may first turn its gaze to him/her in order to establish eye contact. However, such a turning action of the robot may not in itself be sufficient to make eye contact with the target person in all situations, especially when the robot and the person are not facing each other or the human is intensely engaged in a task. In this paper, we propose a conceptual model of attention control with five phases: attention attraction, eye contact, attention avoidance, gaze back, and attention shift. We conducted two experiments to validate our model in human-robot interaction scenarios.

Empirical Framework for Autonomous Wheelchair System in Human-Shared Environments
,International Conference on Mechatronics and Automation(ICMA2012):493-498 201208
R. Tomari, Y. Kobayashi and Y. Kuno
Autonomous robotic wheelchairs are normally used in human-shared environments and hence they need to move in a safe and comfortable way. Here, we propose a framework that enables such motions in real indoor environments. Initially human regions are detected and tracked from head cues information. Next, the tracking attributes is interpreted for modeling human's comfort zone (CZ) based on human interaction rules rooted from Proxemics concept. Finally, the wheelchair's trajectory is generated by respecting the CZ and simultaneously avoiding in place obstacle. Experimental results demonstrate the feasibility of the proposed framework.

Development of Smart Wheelchair System for a user with Severe Motor Impairment
Elsevier,Journal of Procedia Engineering,41:538-546 201208
R. Tomari, Y. Kobayashi and Y. Kuno
Users with severe motor impairment may find it difficult to operate a wheelchair when they are in tight space (e.g., passing doorway) or when avoiding obstacles since they cannot command the wheelchair by means of a conventional joystick. Here we propose a framework that can assist users to overcome such circumstances using a hierarchical semi-autonomous control strategy. Initially multimodal user inputs based on momentary switch and yaw head angle are analyzed to decide a maneuvering mode and assign the direction of travel. Then, environmental information is perceived using the combination of a laser range finder and the Kinect sensor for determining safety map around wheelchair's vicinity. Eventually, the user's inputs are provided to the navigation planner along with the safety map to moderate motion that is collision free and the best for user preference. Experimental results demonstrate the feasibility of the proposed approach.

同伴者の振舞いの観察に基づいて自動併走するロボット車椅子
,情報処理学会論文誌,53(7):1687-1697 201207
小林貴訓, 高野恵利衣, 金原悠貴, 久野義徳, 小池智哉, 山崎晶子

Object Recognition for Service Robots through Verbal Interaction about Multiple Attribute Information
Springer,International Symposium on Visual Computing (ISVC2012), Lecture Notes in Computer Science 7431:620-631 201207
H. Fukuda, S. Mori, Y. Kobayashi and Y. Kuno
In order to be effective, it is essential for service robots to be able to recognize objects in complex environments. However, it is a difficult problem for them to recognize objects autonomously without any mistakes in a real-world environment. Thus, in response to this challenge we conceived of an object recognition system that would utilize information about target objects acquired from the user through simple interaction. In this paper, we propose image processing techniques to consider the shape composition and the material composition of objects in an interactive object recognition framework, and introduce a robot using this interactive object recognition system. Experimental results confirmed that the robot could indeed recognize objects by utilizing multiple attribute information obtained through interaction with the user.

Wide Field of View Kinect Undistortion for Social Navigation Implementation
Springer,International Symposium on Visual Computing (ISVC2012), Lecture Notes in Computer Science 7432:526-535 201207
R. Tomari, Y. Kobayashi and Y. Kuno
In planning navigation schemes for social robots, distinguishing between humans and other obstacles is crucial for obtaining a safe and comfortable motion. A Kinect camera is capable of fulfilling such a task but unfortunately can only deliver a limited field of view (FOV). Recently a lens that is capable of improving the Kinect’s FOV has become commercially available from Nyko. However, this lens causes a distortion in the RGB-D data, including the depth values. To address this issue, we propose a two-staged undistortion strategy. Initially, pixel locations in both RGB and depth images are corrected using an inverse radial distortion model. Next, the depth data is post-filtered using 3D point cloud analysis to diminish the noise as a result of the undistorting process and remove the ground/ceiling information. Finally, the depth values are rectified using a neural network filter based on laser-assisted training. Experimental results demonstrate the feasibility of the proposed approach for fixing distorted RGB-D data.

Robotic System Controlling Target Human's Attention
Springer,Conference on Intelligent Computing (ICIC2012), Lecture Notes in Artifical Intelligence 7390:534-544 201207
M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kun
Attention control can be defined as shifting people's attention from their existing direction toward a goal direction. If a human would like to shift another's attention, s/he may first turn his/her gaze to that human to make eye contact. However, it is not an easy task for a robot when the human is not looking at it initially. In this paper, we propose a model of attention control with four parts: attention attraction, eye contact, attention avoidance, and attention shift. To initiate attention control process, the robot first tries to gain the target person's attention toward it through head turning or head shaking action depending on the three viewing situations where the robot is captured in his/her field of view (central field of view, near peripheral field of view, and far peripheral field of view). After gaining his/her attention, the robot makes eye contact through showing gaze awareness by blinking its eyes, and directs his/her attention to an object by turning both its eyes and head. If a person other than the target seems to be attracted by the robot, the robot turns its head away from that person to avoid his/her attention. Evaluation experiments confirmed that the proposed approach is effective to control the target person's attention.

Development of a Mobile Museum Guide Robot That Can Configure Spatial Formation with Visitors
,International Conference on Intelligent Computing (ICIC2012), Lecture Notes in Computer Science 7389:423-432 201207
M. Yousuf, Y. Kobayashi, Y. Kuno, A. Yamazaki and K. Yamazaki
Museum guide robot is expected to establish a proper spatial formation known as “F-formation” with the visitors before starting its explanation of any exhibit. This paper presents a model for a mobile museum guide robot that can establish an F-formation appropriately and can employ “pause and restart” depending on the situation. We began by observing and videotaping scenes of actual museum galleries where human guides explain exhibits to visitors. Based on the analysis of the video, we developed a mobile robot system that can guide multiple visitors inside the gallery from one exhibit to another. The robot has the capability to establish the F-formation at the beginning of explanation after arriving near to any exhibit. The robot can also implement “pause and restart” depending on the situation at certain moment in its talk to first elicit the visitor’s attention towards the robot. Experimental results suggest the efficacy of our proposed model.

Spatial-Based Feature for Locating Objects
Springer,International Conference on Intelligent Computing (ICIC2012), Lecture Notes in Artificial Intelligence 7390:128-137 201207
L. Cao, Y. Kobayashi and Y.Kuno
In this paper, we discuss how humans locate and detect objects using spatial expressions. Then we propose a spatial-based feature for object localization and recognition tasks. We develop a system that can recognize an object whose positional relation with another object is indicated verbally by a human. Experimental results using two image datasets prepared by the authors confirm the usefulness of the proposed feature.

Robotic wheelchair with omni-directional vision for moving alongside a caregiver
,IECON2012:4177-4182 2012
Y. Kobayashi, R. Suzuki, Y. Kuno

Robotic Wheelchair Moving with Caregiver Collaboratively
,LNAI6839:523-532 2012
Y.Kobayashi, Y.Kinpara, E.Takano, Y. Kuno, A.Yamazaki, K.Yamazaki,

Multiple Robotic Wheelchair System Based on the Observation of Circumstance
,FCV2012:222-226 2012
E.Takano, Y.Kobayashi, Y.Kuno,

A Mobile Guide Robot Capable of Formulating Spatial Formations
,FCV2012:274-280 2012
M.A.Yousuf, Y.Kobayashi, A.Yamazaki, K.Yamazaki, Y.Kuno

Interactive Object Recognition Using Attribute Information
,FCV2012:306-310 2012
H.Fukuda, Y.Kobayashi, Y.Kuno

A Techno-Sociological Solution for Designing a Museum Guide Robot:Regarding Choosing an Appropriate Visitor
ACM/IEEE,HRI2012:309-316 2012
A.Yamazaki, K.Yamazaki, T.Oyama, Y.Kobayashi, Y.Kuno

Mobile care robot accepting requests through nonverbal interaction
,FCV2011 2011
M. Gyoda, T. Tabata, Y. Kobayashi, Y. Kuno

介護者を見て協調移動するロボット車椅子第43巻、11号, pp.48-52, 2011
,映像情報インダストリアル 2011
久野義徳

介護者を見て協調移動するロボット車椅子
,映像情報メディカル,43(12):1036-1039 2011
久野義徳

Multi-view Head Detection and Tracking with Long Range Capability for Social Navigation Planning
,Lecture Note in Computer Science,Vol.6939:418-427 2011
T.Razali, Y.Kobayashi, Y.Kuno

Sub-category optimization through Cluster Performance Analysis for Multi-Pose Object Detection
,IEICE Trans. Information and Systems,E94.D(7):1467-1478 2011
D.Das, Y.Kobayashi, Y.Kuno

Understanding the Meaning of Shape Description for Interactive Object Recognition
,ICIC2011 2011
S.Mori, Y.Kobayashi, Y.Kuno

Robotic Wheelchair Moving with the Caregiver collaboratively
,ICIC2011:2239-2244 2011
Y.Kobayashi, Y.Kinpara, E.Takano, Y. Kuno, K.Kobayashi

Assisted-Care Robot Based on Sociological Interaction Analysis
Elsevier,Computers in Human Behavior,27(5):1527-1534 2011
W.Quan, H.Niwa, N.Ishikawa, Y.Kobayashi, Y.Kuno

Controlling Human Attention through Robot's Gaze Behaviors
IEEE,HSI2011:195-202 2011
M.M. Hoque, T. Onuki, Y. Kobayashi, Y. Kuno

3D Free-Form Object Material Identification by Surface Reflection Analysis with a Time-of-Flight Range Sensor
IAPR,MVA2011:227-230 2011
M.Mannan, H.Fukuda, L.Cao, Y.Kobayashi, Y.Kuno

A Considerate Care Robot Able to Serve in Multi-party Settings
IEEE/RSJ,Ro-Man2011:27-32 2011
Y.Kobayashi, M.Gyoda, T.Tabata, Y.Kuno, K.Yamazaki, M.Shibuya, Y.Seki, A.Yamazaki

Object Recognition for Service Robots : Where is the Fronts?
IEEE,ICMA2011:875-880 2011
L.Cao, Y.Kobayashi, Y.Kuno

多人数場面において受容者の予期を支援するケアサービスロボット
情報処理学会,情報処理学会論文誌,52(12):3316-3327 2011
小林貴訓、行田将彦、田畠知弥、久野義徳、山崎敬一、渋谷百代、関由起子

Implementation of F-Formation and "Pause and Restart"for a Mobile Museum Guide Robot
人工知能学会,miMI2011 2011
M.A.Yousuf, Y.Kobayashi, A.Yamazaki, K.Yamazaki, Y.Kuno

People tracking using integrated sensors for human robot interaction
,ICIT2010(IEEE International Conference on Industrial Technology):1597-1602 201003
Yoshinori Kobayashi, Yoshinori Kuno

Decomposition and detection of multiple object categories through automatic topic optimization
FCV 2010 Committee,16th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2010):481-485 201002
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

超音波センサーとCCD,赤外線カメラを組み合せた障害物警報システムの開発
埼玉大学地域オープンイノベーションセンター,埼玉大学地域オープンイノベーションセンター紀要,2:74 2010
久野義徳、小林貴訓

People tracking using integrated sensors for human robot interaction
IEEE,Proc. ICIT2010(IEEE International Conference on Industrial Technology),2010:1617-1622 2010
Yoshinori Kobayashi, Yoshinori Kuno

An empirical framework to control human attention by robot
Springer,Proc. International Workshop on Gaze Sensing and Interactions,LNCS 6468巻:430-439 2010
M.M. Hoque, T. Onuki, E. Tsuburaya, Y. Kobayashi, Y. Kuno, T. Sato, S. Kodama,

Coordination of verbal and non-verbal actions in human-robot interaction at museums and exhibitions
Elsevier,Journal of Pragmatics,42:2398-2414 2010
A. Yamazaki, K. Yamazaki, M. Burdelski, Y. Kuno, M. Fukushima

I will ask you: Choosing answerers by observing gaze responses using integrated sensors for museum guide robots
IEEE,Ro-MAN2010:687-692 2010
Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno, M. Okada, K. Yamazaki

Object detection in cluttered range images using edgel geometry
電気学会,IEEJ Trans. EIS,130(9):1572-1580 2010
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

Object material classification by surface reflection analysis with a time-of-flight range sensor
Springer,International Symposium on Visual Computing (ISVC2010) ,LNCS6454:439-448 2010
Md. Abdul Mannan, Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

Selective function of speaker gaze before and during questions – Towards developing museum guide robots
ACM SIGCHI,CHI2010 Extended Abstracts:4201-4206 2010
Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno

Smart wheelchair navigation based on user’s gaze on destination
Springer,International Conference on Intelligent Computing (ICIC 2010),CCIS93(21):387-394 2010
Razali Tomari, Rong Zhu, Yoshinori Kobayashi, Yoshinori Kuno

Spatial resolution for robot to detect objects
IEEE,Proc. International Conference on Intelligent Robots and Systems (IROS 2010):4548-4553 2010
Lu Cao, Yoshinori Kobayashi, Yoshinori Kuno

Sub-category optimization for multi-view multi-pose object detection
,Proc. IAPR International Conference on Pattern Recognition (ICPR2010):1405-1408 2010
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

注視誘導技術の開発
埼玉大学地域オープンイノベーションセンター,埼玉大学地域オープンイノベーションセンター紀要,2:73 2010
久野義徳、小林貴訓

Efficient hypothesis generation through sub-categorization for multiple object detection
Springer,Proc. International Symposium on Visual Computing (ISVC2009),LNCS5876:160-171 200912
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

Object detection and localization in clutter range images using edge features
Springer,Proc. International Symposium on Visual Computing (ISVC2009),LNCS5876:172-183 200912
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

観客を話に引き込むミュージアムガイドロボット:言葉と身体的行動の連携
電子情報通信学会,電子情報通信学会論文誌A,92-A(11):764-772 200911
星洋輔,小林貴訓,久野義徳,岡田真依,山崎敬一,山崎晶子

Robotic wheelchair based on observations of people using integrated sensors
IEEE,Proc. IROS 2009:2013-2018 200910
Yoshinori Kobayashi, Yuki Kinpara, Takashi Shibusawa, Yoshinori Kuno

Object recognition in service robots: Conducting verbal interaction on color and spatial relationship
IEEE,IEEE 12th ICCV Workshops (Human-Computer Interaction):2025-2031 200910
Yoshinori Kuno, Katsutoshi Sakata, Yoshinori Kobayashi

Multiple object category detection and localization using generative and discriminative models
電子情報通信学会,IEICE Trans. Information and Systems,E92-D(10):2112-2121 200910
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

Guest editorial - Introducing automation and engineering for ambient intelligence
IEEE,IEEE Trans. Automation Science and Engineering,6(4):573-576 200910
Paolo Remagnino, Drothy N. Monekosso, Yoshinori Kuno, Mohan Nanubhai Trived, How-Lung Eng

Assisted-Care Robot Based on Sociological Interaction Analysis
,ICIC2009(2009 International Conference on Intelligent Computing) 200909
Wenxing Quan, Naoto Ishikawa, Yoshinori Kobayashi, Yoshinori Kuno

Spatial relation model for object recognition in human-robot interaction
Springer,ICIC2009(2009 International Conference on Intelligent Computing),LNCS 5754:574-584 200909
L.u Cao, Yoshinori Kobayashi, Yoshinori Kuno

複合センサを用いた人物の行動計測に基づく自律移動車椅子
画像センシング技術研究会,第15回画像センシングシンポジウム(SSII09) 200906
小林貴訓, 金原悠貴, 久野義徳

A hybrid model for multiple object category detection and localization
,IAPR Conference on Machine Vision Applications (MVA2009):431-434 200905
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

Revealing Gauguin: Engaging visitors in robot guide’s explanation in an art museum
ACM SIGCHI,CHI2009 Conference Proceedings:1437-1446 200904
Keiichi Yamazaki, Akiko Yamazaki, Mai Okada,Yoshinori Kuno, Yoshinori Kobayashi,Yosuke Hoshi, Karola Pitsch, Paul Luff, Dirk vom Lehn,Christian Heath

Assisted-care robot initiation communication in multiparty settings
ACM SIGCHI,CHI2009 Extended Abstracts:3583-3588 200904
Yoshinori Kobayashi, Yoshinori Kuno, Hitoshi Niwa, Naonori Akiya, Mai Okada, Keiichi Yamazaki, Akiko Yamazaki

Collaborative Robotic Wheelchair Based on Visual and Laser Sensing
,Proc. 15th Japan-Korea Joint Workshop on Frontiers of Computer Vision (FCV2009):1-6 200902
Yoshinori Kobayashi, Yuki Kinpara, Tomoo Shibusawa, and Yoshinori Kuno

高齢者介護施設におけるコミュニケーションチャンネル確立過程の分析と支援システムの提案
情報処理学会,情報処理学会論文誌,50(1):302-313 200901
秋谷直矩,丹羽仁史,岡田真依,山崎敬一,小林貴訓,久野義徳,山崎晶子

Assisted-Care Robot Based on Sociological Interaction Analysis
Elsevier,Computers in Human Behavior 2009
Wenxing Quan, Naoto Ishikawa, Yoshinori Kobayashi, Yoshinori Kuno

An Integrated Method for Multiple Object Detection and Localization
Springer,Proc. ISVC2008,LNCS5359:133-144 200812
D. Das, A. Mansur, Y. Kobayashi, and Y. Kuno

Improving Recognition through Object Sub-categorization
Springer,Proc. ISVC2008,LNCS5359:851-859 200812
A. Mansur and Y. Kuno

Effect of pauses and restarts on achieving a state of mutual orientation between a human and a robot
,Proc. CSCW2008:201-204 200811
H. Kuzuoka, K. Pitsch, Y. Suzuki, I. Kawaguchi, K. Yamazaki, A.Yamazaki, Y. Kuno, P. Luff, and C. Hea

Museum guide robot with three communication modes
,Proc. IROS2008:3224-3229 200809
Y. Kobayashi, Y. Hoshi, G. Hoshino, T. Kasuya, M. Fueki, and Y. Kuno

介護ロボットのための視覚情報によるコミュニケーションの開始
産業開発機構,映像情報インダストリアル増刊号,40(10):61-65 200809
久野義徳

複数人状況における人間とロボットのコミュニケーションチャネルの確立
埼玉大学総合研究機構,総合研究機構研究プロジェクト研究成果報告書,第6号(平成19年度) 200809
久野義徳

Human robot interaction through simple expressions for object recognition
,Proc. 17th IEEE RO-MAN:647-652 200808
A. Mansur, K. Sakata, Y. Kobayashi, and Y. Kuno

Interactively Instructing a Guide Robot through a Network
,Proc. ICCAS2008 200808
Y. Hoshi, Y. Kobayashi, T. Kasuya, M. Fueki, and Y. Kuno

Robotic Wheelchair for Museum Visit
,Proc. SICE2008 200808
Tomoo Shibusawa, Yoshinori Kobayashi , and Yoshinori Kuno

Recognition of plain objects using local region matching
,IEICE transactions on information and systems,E91-D(7):1906-1913 200807
A. Mansur, K. Sakata, D. Das, and Y. Kuno

Specific and class object recognition for service robots through autonomous and interactive methods
電子情報通信学会,IEICE transactions on information and systems,E91-D(6):1793-1803 200806
A. Mansur and Y. Kuno

Robot Vision for Recognizing Complex Objects through Simple Interaction
,Proc. Mecatronics2008 200805
Yoshinori Kuno, Katsutoshi Sakata, Al Mansur, and Keiichi Yamazaki

Precision timing in human-robot interaction: Coordination of head movement and utterance
ACM SIGCHI,Proc. CHI2008:131-140 200804
A. Yamazaki, K. Yamazaki, Y. Kuno, M. Burdelski, M. Kawashima, and H. Kuzuoka

ミュージアムガイドロボットへの遠隔対話指示
電子情報通信学会,電子情報通信学会2008年総合大会情報・システムソサイエティ総合大会特別号:ISS-P-95 200803
糟谷智樹,小林貴訓,久野義徳

介護ロボットの見まわし行動
情報処理学会,情報処理学会第70回全国大会講演論文集:5-103-5-104 200803
丹羽仁史,石川直人,久野義徳,山崎敬一
A Looking Around Action by Service Robots

鑑賞行動を支援するロボット車椅子システム
電子情報通信学会,電子情報通信学会2008年総合大会情報・システム講演論文集,2:169 200803
渋澤朋央,小林貴訓,久野義徳
Robotic Wheelchair for Supporting Art Appreciation

高齢者介護施設における依頼行為の相互行為分析
情報処理学会,情報処理学会第70回全国大会講演論文集:5-101-5-102 200803
秋谷直矩,山崎敬一,三橋弘次,久野義徳
Interactional analysis of request behavior in nursing care home for elderly

視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション研究成果報告書
総務省戦略的情報通信研究開発推進制度(SCOPE),総務省戦略的情報通信研究開発推進制度(SCOPE) 特定領域重点型研究開発 次世代ヒューマンインタフェース・コンテンツ技術,平成17-19年度 200803
久野義徳,山崎敬一,小林貴訓,葛岡英明,山崎晶子,山本敏雄,中村明生,川島理恵,Matthew Burdelski,鶴田幸恵,三橋浩次
Human-Robot Communication through Visual Information in Face-to-Face and Network Modes[Summary]

Importance of Vision in Human-Robot Communication: Understanding Speech Using Robot Vision and Demonstrating Proper Actions to Human Vision
Springer,Dorothy Monekosso, Paolo Remagnino, and Yoshinori Kuno (eds.), Intelligent Environments: Methods, Algorithms and Applications:191-210 2008
Yoshinori Kuno, Michie Kawashima, Keiichi Yamazaki, and Akiko Yamazaki

Intelligent Environments: Methods, Algorithms and Applications
Springer,Dorothy Monekosso, Paolo Remagnino, and Yoshinori Kuno (eds.), Intelligent Environments: Methods, Algorithms and Applications:1-11,191-210 2008
Dorothy Monekosso, Paolo Remagnino, and Yoshinori Kuno

Interactive Reference Resolution for Service Robots
,Proc. FCV2008:CD-ROM 2008
Tajin R.T. and Kuno Y.

Effect on displaying a remote operator's face on a media robot
,International Conference on Control, Automation and Systems 2007:758-761 200710
久野義徳

Museum Guide Robot with Effective Head Gestures
Springer,International Conference on Control, Automation and Systems 2007:1168-1171 200710
Sadazuka K., Kuno Y., Kawashima M. and Yamazaki K

Prior-to-Request and Request Behaviors within Elderly Day Care: Implications for Developing Service Robots for Use in Multiparty Settings
Springer,Proc. ECSCW2007:61-78 200709
Yamazaki K., Kawashima M., Kuno Y., Akiya N., Burdelski M., Yamazaki A., and Kuzuoka H.

無言のロボットによる注意誘導の研究
ヒューマンインタフェース学会,ヒューマンインターフェースシンポジウム 200709
鈴木祐也,葛岡英明,山下淳,山崎敬一,山崎晶子,久野義徳
Study on Drawing Attention by a Speechless Robot

Effective Head Gestures for Museum Guide Robot in Interaction with Humans
IEEE,Proc. RO-MAN2007:151-156 200708
KunoY., Sadazuka K., Kawashima M., Tsuruta S., Yamazaki K., and Yamazaki, A.

介護ロボット開発に向けた高齢者介護施設における相互行為の社会学的分析 (情報福祉論文特集)
電子情報通信学会,電子情報通信学会論文誌. D, 情報・システム,J90-D(3):798-807 200703
秋谷直矩,丹羽仁史,坪田寿夫,鶴田幸恵,葛岡英明,久野義徳,山崎敬一

Developing Helper Robot for Senior Care through Sociological Analysis of Human Interaction,
,Proc. 13th Korea-Japan Joint Workshop on Frontiers of Computer Vision:CD-ROM 2007
Niwa H., Akiya N., Kawashima M., Kuno Y., and Yamazaki K.

Effect of Horizontal Position on Detecting Persons Looking towards the Robot
,Proc.SICE2007:347-350 2007
Tajin R.T. and Kuno Y

Integration of Multiple Methods for Robust Object Recognition
,Proc.SICE2007:1990-1995 2007
Mansur A. and Kuno Y

Museum Guide Robot Based on Sociological Interaction Analysis
,Proc. CHI2007:1191-1994 2007
Kuno Y., Sadazuka K., Kawashima M., Yamazaki K., Yamazaki A., and Kuzuoka H.

Museum Guide Robot Moving Its Head for Smooth Communication While Watching Visitors
,Proc. 13th Korea-Japan Joint Workshop on Frontiers of Computer Vision:CD-ROM 2007
Sadazuka K., Kawashima M., Kuno Y., and Yamazaki K.

Recognition of Household Objects by Service Robots Through Interactive and Autonomous Methods
,Proc. ISVC2007,LNCS4842:140-151 2007
Mansur A., Sakata K., and Kuno Y

Selection of Object Recognition Methods According to the Task and Object Category
,Proc. MVA2007:388-392 2007
Mansur A. and Kuno Y

Skin Patch Trajectories as Scene Dynamics Descriptors
,Proc. MVA2007:315-318 2007
Zhan B., Monekosso N.M, Remagnino P. , Rukhsana T., Mansur A. and Kuno Y.

Study on an Attention Drawing Robot to Support Art Appreciation -Drawing Visitor's Attention by a Wordless Robot's Gestures -
,Proc. Asiagraph 2007 2007
Kuzuoka H., Suzuki Y., Yamashiata J., Yamazaki K., and Kuno Y.

人間の物体と空間関係表現の調査に基づく対話物体認識
埼玉大学総合研究機構,総合研究機構研究プロジェクト研究成果報告書,第5号(18年度):48-51 2007
久野義徳
Object Recognition Based on Analysis of Human Description of Appearance and Spatial Relation

エスノメソドロジー的研究をいかに行うか
ヒューマンインタフェース学会,ヒューマンインターフェース学会誌,8(4):223-228 200611
山崎敬一,川島理恵,葛岡英明,久野義徳

ハイブリッドサイエンスとしてのエスノメソドロジー : ミュージアムガイドロボットの開発(エスノメソドロジー・エスノグラフィ特集<特集記事>
ヒューマンインタフェース学会,ヒューマンインターフェース学会誌,8(4):229-234 200611
山崎晶子,久野義徳

ロボットビジョン応用の展開 : コミュニケーションに関するビジョン
精密工学会,精密工学会 画像応用技術専門委員会報告,21(3):1-11 200611
久野義徳

ロボットを介した人間 : コンピュータインタラクションの研究
日本機械学会,第16回日本機械学会設計工学・システム部門講演会 200611
鈴木祐也,板原達也,葛岡英明,久野義徳
Study on Robot Mediated Human-Computer Interaction

サービスロボットのための視覚と対話の相互利用(<特集>CVとHCI)
情報処理学会,情報処理学会論文誌:コンピュータビジョンとイメージメディア,47(SIG15(CVIM16)):22-34 200610
久野義徳
Reciprocal Functions of Vision and Speech for Service Robots(<Special Section> CV & HCI)

Museum Guide Robot with Communicative Head Motion
IEEE,Proc. 15th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN06):33-38 200609
Kuno Y., Sekiguchi H., Tsubota T., Moriyama S., Yamazaki K., and Yamazaki A

代理ロボット対話システムにおける顔表示の効果に関する研究
ヒューマンインタフェース学会,ヒューマンインターフェースシンポジウム2006論文集:395-398 200609
古澤洋将,友野達也,葛岡英明,山下淳,山崎敬一,久野義徳
Study on effect of human face display on a surrogate robot

FOREWORD : Special Section on Machine Vision Application
電子情報通信学会,IEICE transactions on information and systems,E89-D(7):1983-1983 200607
久野義徳

Interactive Object Recognition through Hypothesis Generation and Confirmation
電子情報通信学会,IEICE transactions on information and systems,E89-D(7):2197-2206 200607
Hossain M.A., Kurnia R., Nakamura A., and Kuno Y.

介護ロボット開発のための人間の依頼行動の分析<速報>
埼玉大学工学部,埼玉大学紀要, 工学部, 第1部論文集,39:97-101 200607
久野義徳,山崎敬一,秋吉直矩,丹波仁史
Analysis of Asking Behavior of Humans for Helper Robot Development

Use of spatial reference systems in interactive object recognition
IEEE,Computer and Robot Vision, 2006. The 3rd Canadian Conference on:62-62 200606
久野義徳

Generation of Efficient and User-Friendly Queries for Helper Robots to Detect Target Objects
Brill Academic Publishers,Advanced Robotics,20(5):499-517 2006
Kurnia R., Hossain M.A., Nakamura A, and Kuno Y.

Integration of Multiple Methods for Class and Specific Object Recognition
,Bebis, G. et al. Eds., Advances in Visual Computing (ISVC 2006),LNCS4291:841-849 2006
Mansur A., Hossain M.A., and Kuno Y

Recognition of Objects Indicated by Deictic Pronouns for Helper Robots
,Proc. SICE-ICASE International Joint Conference:1437-1440 2006
Tsubota H., Niwa H., Kuno Y., Akiya N., Yamazaki K.

Robotic Wheelchair Moving with the Caregiver
,Proc. SICE-ICASE International Joint Conference:238-243 2006
Iwase T., Zhang R., and Kuno Y.

Use of Spatial Reference Systems in Interactive Object Recognition
,Proc. Third Canadian Conference on Computer and Robot Vision:CD-ROM 2006
Kurnia R., Hossain M.A., and Kuno Y.

行動と状況の認識に基づく人間とロボットのコミュニケーション
埼玉大学総合研究機構,総合研究機構研究プロジェクト研究成果報告書,第4号(17年度) 2006
久野義徳
Human-robot communication based on the recognition of actions and situations

Bidirectional Eye Contact for Human-Robot Communication(<Special Section>Life-like Agent and its Communication)
電子情報通信学会,IEICE transactions on information and systems,E88-D(11):2509-2516 200511
D. Miyauchi, A. Sakurai, A. Nakamura, and Y. Kuno 

Interactive Object Recognition System for a Helper Robot Using Photometric Invariance(<Special Section>Life-like Agent and its Communication)
電子情報通信学会,IEICE transactions on information and systems,E88-D(11):2500-2508 200511
久野義徳

Recovery from segmentation failures using photometric invariance in an interactive object recognition system
IEEE,TENCON 2005 2005 IEEE Region 10:1-6 200511
中村明生,久野義徳

Face direction control for a guide robot using visual information
Springer,Ninth European Conference on Computer-Supported Cooperative Work (ECSCW):83-85 200509
Y. Kuno, C. Yamazaki, K. Yamazaki, and A. Yamazaki 

Working hands: Embodying interaction for healthcare
Springer,Ninth European Conference on Computer-Supported Cooperative Work (ECSCW) 200509
久野義徳

予期を考慮した遠隔作業指示システムの研究
ヒューマンインタフェース学会,ヒューマンインターフェースシンポジウム2005論文集,1:329-332 200509
古澤洋将,葛岡英明,山下淳,山崎敬一,久野義徳
Study on remote instruction robot which supports projectability of instructor

Beckoning robots with the eyes
The Institution of Engineering and Technology,Proc. International Workshop on Intelligent Environments:260-266 200506
Y. Kuno, A. Nakamura, and D. Miyauchi 

視覚によるサービスロボットのための簡略化発話の理解(マルチメディア処理)
電子情報通信学会,電子情報通信学会論文誌. D-II, 情報・システム, II-パターン処理,J88-D-II(3):605-618 200503
ザリヤナ・モハマド・ハナフィア, 山崎千寿, 中村明生, 久野義徳

人間の対話行動の分析に基づくガイドロボット<速報>
埼玉大学工学部,埼玉大学紀要, 工学部, 第1部論文集,1(38):165-168 200503
久野義徳,山崎千寿,山崎敬一
Guide Robot Based on the Analysis of Human Interaction Behavior

Dance Training System with Active Vibro-Devices and a Mobile Image Display
,Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2005):3827-3832 2005
A. Nakamura, S. Tabata, T. Ueda, S. Kiyofuji, and Y. Kuno 

Geometric and photometric analysis for interactively recognizing multicolor or partially occluded objects
,Bebis, G. et al. Eds., Advances in Visual Computing ,LNCS3804:134-142 2005
M.A. Hossain, R. Kurnia, and Y. Kuno 

Interactive object recognition system for a helper robot using photometric invariance
,IEICE transactions on information and systems,E88-D(11):2500-2508 2005
M. A. Hossain, R. Kurnia, A. Nakamura, and Y. Kuno 

Interactive vision to detect target objects for helper robots
,Proc. ACM International Conference on Multimodal Interfaces:293-300 2005
M. A. Hossain, R. Kurnia, A. Nakamura, and Y. Kuno 

Multimodal Dance Training System based on Motion Analysis
,Proceedings of the International Symposium on the CREST Digital Archiving Project:120-125 2005
Kuno Y., Nakamura A., Tabata S., Ueda T., and Kiyofuji S.

Multimodal Presentation Method for a Dance Training System
,CHI2005 Extended Abstracts:1685-1688 2005
Akio Nakamura, Sou Tabata, Tomoya Ueda, Shinichiro Kiyofuji, and Yoshinori Kuno 

Object recognition using environmental cues mentioned explicitly or implicitly in speech
,Proceedings of the IAPR Conference on Machine Vision Applications (MVA 2005):320-323 2005
Md. Altab Hossain, Rahamadi Kurnia, Akio Nakamura, and Yoshinori Kuno 

Recovery from segmentation failures using photometric invariance in an interactive object recognition system
,Proc. IEEE Tencon&amp;apos;05:CD-ROM 2005
M. A. Hossain, R. Kurnia, A. Nakamura, and Y. Kuno 

Robotic Method of Taking the Initiative in Eye Contact
,CHI2005 Extended Abstracts:1577-1580 2005
Yoshinori Kuno, Dai Miyauchi, and Akio Nakamura 

Using reference objects to specify position in interactive object recognition
,Proc. International Conference on Instrumentation, Communication and Information Technology :709-714 2005
R. Kurnia, M.A. Hossain, A. Nakamura, and Y. Kuno

視覚と行動を用いた人間とロボットのコミュニケーション
埼玉大学総合研究機構地域共同研究センター産学連携推進部門,埼玉大学地域共同研究センター紀要,6:63-63 2005
久野義徳,山崎敬一

視覚によるサービスロボットのための簡略化発話の理解
,電子情報通信学会論文誌,J88-D-II3:605-618 2005
ザリヤナ・モハマド・ハナフィア, 山崎千寿, 中村明生, 久野義徳

Active Eye Contact for Human-Robot Communication
,CHI2004 Extended Abstracts:1099-1102 2004
Miyauchi D., Sakurai A., Nakamura A., and Kuno. Y

Color Object Segmentation for Helper Robots
,Proceedings of the 3rd International Conference on Elecrical and Computer Engineering (ICECE 2004):206-209 2004
Hossain M.A., Kurnia R., Nakamura A., and Kuno Y.

Development of a Basic Dance Training System with Mobile Robots
,Proceedings of the 13th IEEE International Workshop on Robot and Human Interactive Communication (RO-MAN 2004) 2004
Nakamura A., Niwayama T., Tabata S., and Kuno Y.

Development of an Easy Dance Teaching System Using Active Devices
,Proceedings of the IASTED International Conference on Advances in Computer Science and Technology (ACST 2004):38-43 2004
Tabata S, Nakamura A., and Kuno Y.

Human-Robot Eye Contact through Observations and Actions
,Proceedings of the 17th International Conference on Pattern Recognition 2004
Miyauchi D., Sakurai A., Nakamura A., and Kuno Y.

Human-Robot Speech Interface Understanding Inexplicit Utterances Using Vision
,CHI2004 Extended Abstracts:1321-1324 2004
Hanafiah Z.M., Yamazaki C., Nakamura A., and Kuno Y.

Mobile Robot System for Easy Dance Training
,Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2004):2223-2228 2004
Niwayama T., Nakamura A., Tabata S., and Kuno Y.

Object Recognition through Human-Robot Interaction by Speech
,Proceedings of the 13th IEEE International Workshop on Robot and Human Interactive Communication (RO-MAN 2004) 2004
urnia R., Hossain M.A., Nakamura A., and Kuno Y.

Query Generation for Helper Robots to Recognize Objects
,Proceedings of the IEEE Conference on Robotics, Automation and Mechatronics (RAM 2004):939-944 2004
Kurnia R., Hossain M.A., Nakamura A., and Kuno Y

Robotic Wheelchair Understanding the User€'s Intention in Speech Using the Environmental Information
,Proceedings of the IASTED International Conference on Advances in Computer Science and Technology (ACST 2004):285-290 2004
Iwase T., Nakamura A., and Kuno Y.

Two-way Eye Contact between Humans and Robots
,Proceedings of the sixth International Conference on Multimodal Interfaces (ICMI 2004):1-8 2004
Kuno Y., Sakurai A., Miyauchi D., and Nakamura A.

Understanding Inexplicit Utterances Using Vision for Helper Robots
,Proceedings of the 17th International Conference on Pattern Recognition 2004
Hanafiah Z.M., Yamazaki C., Nakamura A., and Kuno Y.

Web Browser Controlled by Eye Movements
,Proceedings of the IASTED International Conference on Advances in Computer Science and Technology (ACST 2004):93-98 2004
Nakano Y., Nakamura A., and Kuno Y.

ユーザと環境に適応する指示物体認識のための視覚音声システム
,日本ロボット学会誌,227:901-910 2004
吉崎充敏,中村明生,久野義徳

Recognition of Two-Hand Gestures Using Coupled Switching Linear Model (Image Processing, Image Patern Recongition)
電子情報通信学会,IEICE transactions on information and systems,E86-D(8):1416-1425 200308
久野義徳

Recognition of Shape-Changinig Hand Gestures
電子情報通信学会,IEICE transactions on information and systems,E85-D(10):1678-1687 200210
久野義徳

Real-time surveillance system detecting persons in complex scenes
,Real-Time Imaging Journal,7(5):433-446 2001
A. Iketani, A. Nagai, Y. Kuno, and Y. Shirai

動的ロバストキャリブレーションによる人体の姿勢復元
,電子情報通信学会論文誌. D-II,J83-D-II(3):977-987 2000

顔の視覚情報処理を用いた知的車椅子
,日本ロボット学会誌,17(3):423-431 1999
足立,中西,久野,島田,白井

Vision-based human interface system with world-fixed and human-centered frames using multiple view invariance
,IEICE transactions on information and systems,E79-D(6):799-808 1996

A Spatial-Based Approach for Groups of Objects
Springer,International Symposium on Visual Computing (ISVC2012), Lecture Notes in Computer Science 7431:597-608
L. Cao, Y. Kobayashi and Y.Kuno
We introduce a spatial-based feature approach to locating and recognizing objects in cases where several identical or similar objects are accumulated together. With respect to cognition, humans specify such cases with a group-based reference system, which can be considered as an extension of conventional notions of reference systems. On the other hand, a spatial-based feature is straightforward and distinctive, making it more suitable for object recognition tasks. We evaluate this approach by testing it on eight diverse object categories, and thereby provided comprehensive results. The performance exceeds the state of art by high accuracy, less attempts and fast running time.

学会発表
スマートフォン搭載センサを用いた歩行者同定
2017年電子情報通信学会総合大会 201703
遠藤文人,鈴木亮太,福田悠人,小林貴訓,久野義徳

位置情報に基づくサ―ビスを提供する自律移動ショッピングカート
2017年電子情報通信学会総合大会 201703
山崎誠治,高橋秀和,鈴木亮太,山田大地,福田悠人,小林貴訓,久野義徳

ロボットの視線フィードバックを援用した指示物体の同定
2017年電子情報通信学会総合大会 201703
高田靖人,福田悠人,小林貴訓,久野義徳

ロボットのための動的観察に基づく物体認識手法の提案
2017年電子情報通信学会総合大会,2017年電子情報通信学会総合大会ISS学生ポスターセッション 201703
三浦且之,福田悠人,小林貴訓,久野義徳

玄関での日常会話を援用した徘徊抑止システムの提案
2017年電子情報通信学会総合大会,2017年電子情報通信学会総合大会ISS学生ポスターセッション 201703
長嶺洋佑,大津耕陽,福田悠人,小林貴訓,久野義徳

Blind Area Detection for Safe and Comfortable Navigation of Robotic Wheelchairs
2017年電子情報通信学会総合大会,2017年電子情報通信学会総合大会ISS学生ポスターセッション 201703
J.T. Husna,H. Fukuda,Y. Kobayashi,and Y. Kuno

Robotic Agent to Support Navigation and Communication for Autonomous Wheelchair
2017年電子情報通信学会総合大会,2017年電子情報通信学会総合大会ISS学生ポスターセッション 201703
R. Kumari,H. Fukuda,Y. Kobayashi,and Y. Kuno

ベクションを用いたパーソナルモビリティの誘導
情報処理学会,インラクション2017,インラクション2017 201703
鈴木 亮太,中村 優介,福田 悠人,小林 貴訓,久野 義徳

遠隔ビデオ通話機能を備えた自律追従型見守りロボット
HAIシンポジウム,HAIシンポジウム予稿集 201612
Sidra Tariq,福田悠人,小林貴訓,久野義徳

ロボットが誘発する多人数相互行為の分析
電子情報通信学会HCS研究会,電子情報通信学会技術研究報告HCS 201609
楊澤坤, 福田悠人, 山崎敬一, 山崎晶子, 小林貴訓, 久野義徳

BLE対応スマートフォンを持った同伴者と協調移動するロボット車椅子
電子情報通信学会HCS研究会,電子情報通信学会技術研究報告HCS 201609
関根凌太, 高橋秀和, 鈴木亮太, 福田悠人, 小林貴訓, 久野義徳, 山崎敬一, 山崎晶子

付加情報を用いた学習済みCNNに基づく物体認識
画像センシングシンポジウム,第22回画像センシングシンポジウム講演予稿集 201606
細原大輔, 福田悠人, 小林貴訓, 久野義徳

テレビ電話と連携した人形型デバイスを用いた高齢者の遠隔見守りシステム
画像戦センシングシンポジウム,第22回画像センシングシンポジウム講演予稿集 201606
大津耕陽,松田 成,福田悠人,小林貴訓,久野義徳

電磁場変動センサを応用したロボット車椅子の試作
日本機械学会ロボティクス・メカトロニクス講演会,日本機械学会ロボティクス・メカトロニクス講演会予稿集 201606
小玉亮,鈴木亮太,小林貴訓,梶本裕之

慣性計測センサを用いたロボット車椅子ユーザの暴れと立ち上がり検知
2016年電子情報通信学会総合大会,2016年電子情報通信学会総合大会講演予稿集 201603
横倉拓朗, 鈴木亮太, 小林貴訓, 久野義徳

テレビ電話を介した視聴覚情報によるロボットの遠隔操作
2016年電子情報通信学会総合大会,2016年電子情報通信学会総合大会講演予稿集 201603
水村育美, 鈴木亮太, 小林貴訓, 久野義徳

対話状況の観察に基づく高齢者遠隔見守りシステム
2016年電子情報通信学会総合大会,2016年電子情報通信学会総合大会講演予稿集 201603
大津耕陽, 小林貴訓, 久野義徳

陳列状況の変化に頑健な自律移動ショッピングカート
2016年電子情報通信学会総合大会,2016年電子情報通信学会総合大会学生ポスターセッション 201603
高橋秀和, 鈴木亮太, 小林貴訓

複数視点間の認識結果の統合に基づく物体認識
2016年電子情報通信学会総合大会,2016年電子情報通信学会総合大会学生ポスターセッション 201603
渡邉真悠, 福田悠人, 小林貴訓, 久野義徳

美術館来訪者の興味度の推定に向けた移動行動の分析
2016年電子情報通信学会総合大会,2016年電子情報通信学会総合大会講演予稿集 201603
米澤拓也, 鈴木亮太, Md. Golam Rashed, 小林貴訓, 久野義徳

認知症介護支援のためのキーワード検出に基づく対話システム
精密工学会パターン計測シンポジウム,パターン計測シンポジウム講演予稿集 201511
堀江 直人,小林 貴訓,久野 義徳

サービスロボットのためのRGB-Dデータの領域分割に基づく時間経過を考慮したシーン理解
精密工学会パターン計測シンポジウム,パターン計測シンポジウム講演予稿集 201511
石川雅貴,小林貴訓,久野義徳

高齢者の状態センシングに基づく遠隔見守りシステム
精密工学会パターン計測シンポジウム,パターン計測シンポジウム講演予稿集 201511
大津耕陽,小林貴訓,久野義徳

Toward a Robot System Supporting Communication between People with Dementia and Their Relatives
International Conference on Intelligent Robots and Systems (IROS2015) 201510
Y. Kuno, S. Goto, Y. Matsuda, T. Kikugawa, A. Lam and Y. Kobayashi

認知症介護を支援する遠隔コミュニケーションシステム
画像センシングシンポジウム(SSII2015),SSII2015講演予稿集 201506
松田成, 小林貴訓, 久野義徳

Robotic systems based on sociological interaction analysis
2nd International Conference on Electrical Engineering and Information & Communication Technology (iCEEiCT2015) 201505
Yoshinori Kuno

ロボットを用いた遠隔コミュニケーションシステム
電子情報通信学会,2015年電子情報通信学会総合大会:194 201503
菊川俊樹, 小林貴訓, 久野義徳

一緒に移動する同伴者を自動認識するロボット車椅子
電子情報通信学会,2015年電子情報通信学会総合大会:192 201503
横倉拓朗, 小林貴訓, 久野義徳

相手の集中度を考慮したロボットによる注意獲得
電子情報通信学会,2015年電子情報通信学会総合大会情報システムソサエティ学生ポスタ―セッション:52 201503
山我直史, 小林貴訓, 久野義徳

ロボット車椅子の進路提示手法に関する検討
電子情報通信学会,2015年電子情報通信学会総合大会情報システムソサエティ学生ポスタ―セッション:53 201503
澤田拳, 小林貴訓, 久野義徳

エージェント対話システムのための高速カメラを用いた表情認識
電子情報通信学会,2015年電子情報通信学会総合大会情報システムソサエティ学ポスタ―セッション:54 201503
秋山俊貴, 小林貴訓, 久野義徳

人の気持ちの分かる生活支援ロボット
セミナー「地域におけるヘルスケア産業創出」 201502
久野義徳

Assistive Robots Based on Observation of Humans
21st Japan-Korea Joint Workshop on Frontiers of Computer Vision 201501
Yoshinori Kuno

同伴者と協調移動する複数ロボット車椅子システム
計測自動制御学会,第19回パターン計測シンポジウム 201411
佐藤慶尚,鈴木亮太,山田大地,小林貴訓,久野義徳

Assistive Robots Based on Sociological Interaction Analysis
9th International Forum on Strategic Technology 2014 (IFOST2014) 201410
Yoshinori Kuno

サービスロボットのための物体表現オントロジーに基づいた物体認識
画像センシング技術研究会, 画像センシングシンポジウム(SSII2014), 201406
福田悠人,森聡史,小林貴訓,久野義徳,加地大介

人の注視を誘導する目と連動したロボットの振り向き動作の検討
2014年電子情報通信学会総合大会 201403
佐野 要,小貫 朋実,井田 賢人,小林 貴訓,久野 義徳

ミュージアムガイドロボットのための移動軌跡に基づく観客グループ判別
2014年電子情報通信学会総合大会 201403
神田 敦,小林 貴訓,久野 義徳

認知症者の介護を支援する遠隔コミュニケーションシステム
2014年電子情報通信学会総合大会 201403
松田 成,久野 義徳,小林 貴訓

対話を援用したグラフカットに基づく物体領域抽出
2014年電子情報通信学会総合大会 201403
光野 泰弘,小林 貴訓,久野 義徳

オントロジーに基づく形状認識
画像の認識・理解シンポジウム(MIRU2013) 201308
森 智史,福田 悠人,小林 貴訓,久野 義徳,加地 大介

周辺状況を考慮してコミュニケーションを支援するロボット車椅子
画像の認識・理解シンポジウム(MIRU2013) 201307
新井 雅也,佐藤 慶尚,鈴木 亮太,小林 貴訓,久野 義徳

注視を演出するコミュニケーションロボット
画像センシングシンポジウム(SSII2013), 201306
小貫 朋実,江連 智香,石野田 貴文,小林 貴訓,久野 義徳

Robotic Wheelchair Moving Alongside a Companion
IEEE/ACM,International Conference on Human-Robot Interaction (HRI2013) Demonstration 201303
R. Suzuki, Y. Sato, Y. Kobayashi, Y. Kuno, K. Yamazaki, M. Arai and A. Yamazaki
We introduce a robotic wheelchair that can move with a companion collaboratively to facilitate easy communication between them. The system uses the Laser Range Sensor attached horizontally on the companion’s shoulder level for observing the companion’s position to follow him/her. The system tracks the companion’s position and orientation to move with the companion and to avoid collision with him/her.

Question Strategy and Interculturality in Human-Robot Interaction
IEEE/ACM,International Conference on Human-Robot Interaction (HRI2013) Late breaking Report:125 201303
M. Fukushima, R. Fujita, M. Kurihara, T. Suzuki, K. Yamazaki, A. Yamazaki, K. Ikeda, Y. Kuno, Y. Kobayashi, T. Ohyama and E. Yoshida
This paper demonstrates the ways in which multi party human participants in 2 language groups, Japanese and English, engage with a quiz robot when they are asked a question. We focus on both speech and bodily conducts where we discovered both universalities and differences.

Attention Control System with Suitable Cue and Time Depending on the Level of Attention
IEEE/ACM,International Conference on Human-Robot Interaction (HRI2013) Late breaking Report:111 201303
D. Das, M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno
In this paper, we propose an attention control system for social robots that attracts and controls the attention of a target person depending on his/her current attentional focus. The system recognizes the current task of the target person and estimates its level of focus by using the “task related behavior pattern” of the target human. The attention level is used to determine the suitable cues to attract the target person’s attention toward the robot. The robot detects the interest or willingness of the target person to interact with it. Then, depending on the level of interest, the robot displays an awareness signal and shifts his/her attention to an intended goal direction.

Design of Robot Eyes Suitable for Gaze Communication
IEEE/ACM,International Conference on Human-Robot Interaction (HRI2013) Late breaking Report:203 201303
T. Onuki, T. Ishinoda, Y. Kobayashi and Y. Kuno
Human eyes not only serve the function of enabling us “to see” something, but also perform the vital role of allowing us “to show” our gaze for non-verbal communication. The eyes of service robots should therefore also perform both of these functions. Moreover, they should be friendly in appearance so that humans may feel comfortable with the robots. Therefore we maintain that it is important to consider gaze communication capability and friendliness in designing the appearance of robot eyes. In this paper, we propose a new robot face with rearprojected eyes for changing their appearance while simultaneously realizing the sight function by incorporating stereo cameras. Additionally, we examine which shape of robot eyes is most suitable for gaze reading and gives the friendliest impression, through experiments where we altered the shape and iris size of robot eyes.

不可視マーカを用いた複数ロボット車椅子の位置認識
電子情報通信学会,電子情報通信学会総合大会:140 201303
新井雅也, 山崎晶子, 小林貴訓, 久野義徳

オントロジーに基づく対話を援用した物体認識の検討
電子情報通信学会,電子情報通信学会総合大会:151 201303
福田悠人, 小林貴訓, 久野義徳, 加地大介

同伴者の行動に配慮したロボット車椅子の協調移動に関する検討
電子情報通信学会,電子情報通信学会総合大会学生ポスターセッション:127 201303

介護支援ロボットのためのユーザリクエスト認識手法の検討
電子情報通信学会,電子情報通信学会総合大会学生ポスターセッション:128 201303
田畠知弥, 小林貴訓, 久野義徳

人間行動の社会学的分析に基づくサービスロボットの開発
日本感性工学会,第8回感性ロボティクスワークショップ 201303
久野義徳

Model of Guide Robot Behavior to Explain Multiple Exhibits to Multiple Visitors
International Session of 30th Annual Conference of the Robotics Society of Japan (RSJ2012) :83-86 201209
To create and sustain a dynamic physical group during interaction with people is one of the essential features of museum guide robots that are physically co-located with people. However, there are limited conceptual tools for thinking about how the physical aspects of a setting influence interactions between people. One promising framework is Adam Kendon's F-formation system of spatial organization. Kendon presents the concept of F-formation system to explain why people tend to spatially arrange in a particular way when engaged in a social interaction, in which all the participants have equal access and participant rights. An F-formation that can be seen during a guided tour through a museum. In human-human interaction, when people group themselves they automatically form an F-formation. In human-robot interaction, therefore, if a proper F-formation is not formed during the initiation of talk, the robot should undertake action so as to bring about an F-formation. Therefore, our research questions to design our robot system are as follows: 1) Can the robot establish a proper F-formation at the beginning of explanation? 2) Can the robot reconfigure the F-formation again during the ongoing explanation session? The goal of our present work is to extend our previous work by developing robot behavior that is capable to create an F-formation while explaining multiple exhibits collectively to the visitors, as we often observed that guide give a collective explanation of two exhibits to the visitors where they look at multiple exhibits together.

全方位カメラによる周辺情報を用いたロボット車椅子の開発
画像センシング技術研究会,画像センシングシンポジウム(SSII2012) 201206
鈴木亮太, 高野恵利衣, 宗像信聡, 小林貴訓, 久野義徳

視線コミュニケーションを考慮したロボット頭部の開発
画像センシング技術研究会,画像センシングシンポジウム(SSII2012) 201206
小貫朋実, 宮田雄規, 小林貴訓, 久野義徳

Attracting and Controlling Human Attention Through Robot's Behaviors Suited to the Situation
ACM/IEEE,HRI2012:149-150 2012
M.M.Hoque, T.Onuki, D.Das, Y.Kobayashi, Y. Kuno

Establishment of Spatial Formation by Mobile Guide Robot
ACM/IEEE,HRI2012:281-282 2012
M.A.Yousuf, Y.Kobayashi, Y.Kuno, K.Yamazaki, A.Yamazaki

Implementing Human Questioning Strategies into Quizzing-Robot
ACM/IEEE,HRI2012:423 2012
T.Ohyama, Y.Maeda, C.Mori, Y.Kobayashi, Y.Kuno, R.Fujita, K

RGB-Dカメラを用いたサービスロボットのための対話物体認識
情報処理学会,情報処理学会研究報告CVIM,2012-CVIM-180(34) 2012
福田悠人、小林貴訓、久野義徳

多重的身体行動を用いて複数人からの依頼に対応するケアロボット
情報処理学会,情報処理学会研究報告HCI,2012-HCI-146(12) 2012
行田将彦、田畠知弥、小林貴訓、久野義徳,、山崎敬一、佐藤信吾、山崎晶子

介護者に伴走するロボット車椅子のためのタッチパネルインターフェース
,電子情報通信学会総合大会 2012
鈴木亮太、小林貴訓、久野義徳

鑑賞者を適切な位置に誘導するガイドロボット
,電子情報通信学会総合大会ポスタ 2012
望月博康、小林貴訓、久野義徳

Robotic Wheelchair Moving with the Caregiver at the selected Position According to the Situation
,電子情報通信学会総合大会ポスタ 2012
X.Xin, Y.Kobayashi, Y.Kuno

Computer Vision for Human-Robot Interaction, and Vice-Versa
,FCV2012 2012
Yoshinori Kuno

A Wheelchair Which Can Automatically Move Alongside a Caregiver
ACM/IEEE,HRI2011 Video Session 2011
Yoshinori Kobayashi, Yuki Kinpara, Erii Takano, Yoshinori Kuno, Keiichi Yamazaki, Akiko Yamazaki

Assisted-care robot dealing with multiple requests in multi-party settings
ACM/IEEE,HRI2011 Late Breaking Report 2011
Y. Kobayashi, M. Gyoda, T. Tabata, Y. Kuno, K. Yamazaki, M. Shibuya, Y. Seki

Situation-driven control of a robotic wheelchair to follow a caregiver
,FCV2011 2011
Yuki Kinpara, Elly Takano, Yoshinori Kobayashi, Yoshinori Kuno

ミュージアムガイドロボットのための詳細な頭部ジェスチャ計測システムの開発
電子情報通信学会,電子情報通信学会総合大会 2011
大山貴也、柴田高志、小林貴訓、久野義徳

視聴覚情報の融合による依頼者認識システムの開発
電子情報通信学会,電子情報通信学会総合大会(学生ポスターセッション) 2011
鈴木亮太、小林貴訓、久野義徳

自然な動作で人間の注視を獲得するロボット頭部動作の検討
電子情報通信学会,電子情報通信学会総合大会 2011
小貫朋実、圓谷恵美、小林貴訓、久野義徳

親しみやすさと視線の読みとりやすさを兼ね備えたロボットの目のデザイン
電子情報通信学会,電子情報通信学会総合大会(学生ポスターセッション) 2011
圓谷恵美、小貫朋実、小林貴訓、久野義徳

搭乗者の不安を和らげるロボット車椅子の動作提示方法の検討
電子情報通信学会,電子情報通信学会総合大会(学生ポスターセッション) 2011
胡少丹、小林貴訓、久野義徳

複数の人に非言語で対応する介護ロボット
電子情報通信学会,電子情報通信学会総合大会 2011
田畠知弥、行田将彦、小林貴訓、久野義徳

介護者と協調移動するロボット車椅子 病院設備、Vol.53, No.6, p48, 2011
,病院設備,Vol.53(No.6):48 2011
久野義徳

Robotic Wheelchair Moving with caregiver Collaboratively Depending on Circumstances
ACM,CHI2011:2239-2244 2011
Y. Kobayashi, Y. Kinpara, E. Takano, Y. Kuno, K. Yamazaki, A. Yamazaki,

対話物体認識のための材質情報の獲得
画像センシング技術研究会,SSII2011 2011
福田悠人、小林貴訓、久野義徳

非言語行動で依頼を受け付ける移動介護ロボット
画像センシング技術研究会,SSII2011 2011
田畠知弥、行田将彦、小林貴訓、久野義徳

材質を含む属性情報を利用したサービスロボットのための対話物体認識
精密工学会,精密工学会SS2011 2011
福田悠人、小林貴訓、久野義徳

コミュニケーションを考慮した複数ロボット車椅子システム
精密工学会,精密工学会SS2011 2011
高野恵利衣、小林貴訓、久野義徳

Controlling Human Attention by Robot's Behavior Depending on his/her Viewing Situations
,ICSR2011 WIP 2011
M.Mhoque, T.Onuki, E.Tsuburaya, Y.Kobayashi

親しみやすさと視線コミュニケーション機能を考慮したロボットの目のデザイン
,HAIシンポジウム2011 2011
小貫朋実、宮田雄規、小林貴訓、久野義徳

Robotic Wheelchair and Care Robot Based on Sociological Interaction Analysis
,Workshop on Social Robots for Assisted Living – Challenges and Responsibilities 2011
Yoshinori Kuno

高齢者を見守る介護ロボットのための自律移動システムの提案
電子情報通信学会,電子情報通信学会総合大会(学生ポスターセッション):160 201003
行田将彦, 小林貴訓, 久野義徳

周辺状況を考慮して介護者に追随するロボット車椅子
電子情報通信学会,電子情報通信学会総合大会:197 201003
高野恵利衣, 金原悠貴, 小林貴訓, 久野義徳

利用者の目的地推定に基づく自律移動車椅子の提案
電子情報通信学会,電子情報通信学会総合大会(学生ポスターセッション):161 201003
朱エイ, 小林貴訓, 久野義徳

人間行動の社会学的分析に基づく複数人環境での人間とロボットのインタラクション
,情報爆発時代に向けた新しいIT基盤技術の研究 平成21年度研究概要:60 201003
久野義徳,小林貴訓,山崎晶子,島村徹也

人間行動の社会学的分析に基づく複数人環境での人間とロボットのインタラクション
,情報爆発時代に向けた新しいIT基盤技術の研究 平成21年度成果報告書 201003
久野義徳,小林貴訓,山崎晶子,島村徹也

移動しながら見回りする介護ロボット
情報処理学会,情報処理学会第72回全国大会:5.15-16 201003
石川直人, 行田将彦, 浅羽健太郎, 小林貴訓, 久野義徳

介護者の意図と周辺状況の観察に基づくロボット車椅子
情報処理学会,情報処理学会第72回全国大会:5.17-18 201003
金原悠貴, 高野恵利衣, 小林貴訓, 久野義徳

頭部動作の計測に基づき質問相手を選択するガイドロボット
情報処理学会,情報処理学会第72回全国大会:5.21-22 201003
柴田高志, 星洋輔, 鴇田憲, 小林貴訓, 久野義徳

Choosing answerers by observing gaze responses for museum guide robots
ACM/IEEE International Conference on Human-Robot Interaction,HRI2010(5th ACM/IEEE International Conference on Human-Robot Interaction):109-110 201003
Yoshinori Kobayashi, Takashi Shibata, Yosuke Hoshi, Yoshinori Kuno, Mai Okada, Keiichi Yamazaki

聞き手の様子を見ながら作品の説明をするミュージアムガイドロボット
画像センシング技術研究会,第17回画像センシングシンポジウム 2010
小林貴訓、柴田高志、星洋輔、鴇田憲、久野義徳

周辺状況を考慮して介護者と協調移動するロボット車椅子
画像センシング技術研究会,第16回画像センシングシンポジウム 2010
金原悠貴、高野恵利衣、小林貴訓、久野義徳

複数鑑賞者に適応的な身体的行動を用いて解説をするミュージアムガイドロボット
計測自動制御学会,計測自動制御学会システムインテグレーション部門講演会論文集(SI2009):1252-1254 200912
柴田高志, 鴇田憲, 星洋輔, 小林貴訓, 久野義徳

相互行為分析に基づくロボットの開発
電子情報通信学会,2009年度電子情報通信学会HCGシンポジウム 200912
久野義徳

Object detection for service robots using a hybrid autonomous/interactive approach
First IEEE Workshop on Computer Vision for Humanoid Robots in Real Environments,First IEEE Workshop on Computer Vision for Humanoid Robots in Real Environments 200909
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

Head tracking and gesture recognition in museum guide robots for multiparty settings
ECSCW2009 (European Conference on Computer Supported Cooperative Work),ECSCW2009 (European Conference on Computer Supported Cooperative Work) 200909
Yoshinori Kobayashi,Takashi Shibata,Yosuke Hoshi,Yoshinori Kuno,Mai Okada,Keiichi Yamazaki,Akiko Yamazaki

Multiple object detection and localization using range and color images for service robots
ICROS-SICE International Joint Conference 2009,Proc. ICROS-SICE International Joint Conference 2009:3485-3489 200908
Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno

複合センサを用いた人物の行動計測に基づく自律移動車椅子
画像センシングシンポジウム, 2009,第15回画像センシングシンポジウム講演予稿集 200906
小林貴訓、金原悠貴、久野義徳

介護者の状態の観察に基づいたロボット車椅子の制御
,電子情報通信学会2009年総合大会講演論文集:D-12-129 200903
金原悠貴,小林貴訓,久野義徳

移動介護ロボットのための頭部動作に基づく対象者の認識
電子情報通信学会,電子情報通信学会2009年総合大会講演論文集:D-12-111 200903
石川直人,藤原直樹,全文星,小林貴訓,久野義徳

複数鑑賞者をガイドするロボットのための頭部ジェスチャ認識
電子情報通信学会,電子情報通信学会2009年総合大会講演論文集:D-12-113 200903
柴田高志,小林貴訓,久野義徳

オントロジーに基づく対話物体認識
電子情報通信学会,電子情報通信学会2009年総合大会講演論文集:D-12-74 200903
森智史,小林貴訓,久野義徳

Spatial relation descriptions for interactive robot vision
,電子情報通信学会2009年総合大会情報・システムソサイエティ総合大会特別号:41 200903
Lu Cao, Y. Kobayashi, and Y. Kuno

オントロジーに基づくロボットビジョンの提案
,電子情報通信学会2009年総合大会講演論文集:D-12-56 200903
小林貴訓,久野義徳,加地大介

介護ロボットのための距離画像を用いた複数人からの依頼理解
,電子情報通信学会2009年総合大会情報・システムソサイエティ総合大会特別号:13 200903
全文星,小林貴訓,久野義徳

予期的行為の相互参照を通じた介護場面におけるロボットの依頼理解
,情報爆発時代に向けた新しいIT基盤技術の研究 平成20年度研究概要:72 200901
久野義徳,小林貴訓,山崎晶子,山崎敬一

予期的行為の相互参照を通じた介護場面におけるロボットの依頼理解
,情報爆発時代に向けた新しいIT基盤技術の研究 平成20年度成果報告書 200901
久野義徳,小林貴訓,山崎晶子,山崎敬一

観客を話に引き込むミュージアムガイドロボット - 言葉と身体的行動の連動 -
,HAIシンポジウム2008 (HAI-2008) 200812
岡田真依,星洋輔,山崎敬一,山崎晶子,久野義徳,小林貴訓

テクノロジーと質的研究
日本質的心理学会,日本質的心理学会第5回大会:37-38 200811
葛岡英明,久野義徳,綿貫啓一

複数人状況における人間とロボットのコミュニケーションチャネルの確立
埼玉大学総合研究機構,総合研究機構研究プロジェクト成果発表会 : ポスター展示 200811
久野義徳

3つのコミュニケーションモードを持つネットワークロボット
,第14回画像 センシングシンポジウム(SSII08) 200806
笛木雅人,小林貴訓,糟谷智樹,星洋輔,星野豪,久野義徳

鑑賞行動を支援するロボット車椅子システム
電子情報通信学会2008年総合大会,電子情報通信学会2008年総合大会講演論文集:169 200803
渋澤朋央,小林貴訓,久野義徳

ミュージアムガイドロボットへの遠隔対話指示
電子情報通信学会2008年総合大会,電子情報通信学会情報・システムソサイエティ総合大会特別号:95 200803
糟谷智樹,小林貴訓,久野義徳

介護ロボットの見まわし行動
情報処理学会第70回全国大会,情報処理学会第70回全国大会講演論文集:5-103-5-104 200803
丹羽仁史,石川直人,久野義徳,山崎敬一

高齢者介護施設における依頼行為の相互行為分析
情報処理学会第70回全国大会,情報処理学会第70回全国大会講演論文集:5-101-5-102 200803
秋谷直矩,山崎敬一,三橋弘次,久野義徳

人間の物体と空間関係表現の調査に基づく対話物体認識
埼玉大学総合研究機構,総合研究機構研究プロジェクト成果発表会 : ポスター展示 200711
久野義徳

大原美術館でのデモンストレーション Video1
,1 200711
久野義徳

大原美術館でのデモンストレーション Video2
,2 200711
久野義徳

大原美術館でのデモンストレーション Video3
,3 200711
久野義徳

介護ロボット開発のための依頼開始場面の分析
第6回情報科学技術フォーラム(FIT2007),第6回情報科学技術フォーラム講演論文集:577-578 200709
丹羽仁史,秋谷直矩,マシューバーデルスキ,久野義徳,山崎敬一

無言のロボットによる注意誘導の研究
ヒューマンインタフェースシンポジウム2007,ヒューマンインターフェースシンポジウム2007予稿集:615-618 200709
鈴木祐也,葛岡英明,山下淳,山崎敬一,山崎晶子,久野徳

人間が用いる物体表現の調査に基づいた対象物体の検出
第13回画像センシングシンポジウム,第13回画像センシングシンポジウム予稿集:IN4-08-1-IN4-08-5 200706
坂田克俊,久野儀徳

対話物体認識のための人間の物体表現の調査
電子情報通信学会2007年総合大会,電子情報通信学会 情報・システムソサイエティ総合大会特別号:64 200703
坂田克俊,久野義徳

Museum Guide Robot: Collaboration between Sociology and Robotics
Workshop on Human Robot Interaction and Ambient Intelligence 200701
Y. Kuno

ロボットビジョン応用の展開 : コミュニケーションに関するビジョン
精密工学会 画像応用技術専門委員会,精密工学会 画像応用技術専門委員会報告,21(3):1-11 200611
久野義徳

相互行為分析によるガイドロボットの開発 発話と頭部動作の連動について
電子情報通信学会パターン認識・メディア理解研究会,電子情報通信学会技術研究報告(パターン認識・メディア理解),106(300):63-68 200610
定塚和久、久野義徳、川島理恵、山崎敬一、山崎晶子

Seeing actions to understand and doing actions to be seen for human-robot Communication
The 2nd Tangible Space Initiative Colloquium 200610
Y. Kuno

ロボットアームの能動的物体接触による画像セグメンテーションのあいまい性改善
精密工学会 画像応用技術専門委員会 サマーセミナー,精密工学会 画像応用技術専門委員会サマーセミナー2006テキスト,15:117-120 200609
関貴之、中村明生、久野義徳

依頼会話中の指示語の指す対象の認識
第12回画像センシングシンポジウム,第12回画像センシングシンポジウム講演論文集:482-489 200606
坪田寿夫,丹羽仁史,久野義徳,秋谷直矩,山崎敬一

Interactive object recognition for helper robots
NRL Workshop on Robust Robot Vision 200606
Y. Kuno

福祉ロボット開発のための人間の依頼行動の分析
電子情報通信学会,電子情報通信学会情報・システムソサイエティ誌特別号:82 200603
丹羽仁史、久野義徳

福祉ロボット開発の為の依頼のプロセスに関する基礎的考察
電子情報通信学会,電子情報通信学会技術報告 福祉情報工学,105(684):35-40 200603
秋谷直矩、丹羽仁史、久野義徳、山崎敬一

解説時の視線のエスノメソドロジー的分析に基づくガイドロボット
電子情報通信学会,電子情報通信学会技術報告 人工知能と知識処理,105(639):29-34 200603
森山正太、関口博之、坪田寿夫、山崎敬一、久野義徳、山崎晶子

Interactive object recognition using photometric properties
情報処理学会,情報処理学会研究会報告,CVIM150 200509
M. A. Hossain, R. Kurnia, and Y. Kuno 

モーションキャプチャデータを用いた舞踊訓練システム
精密工学会,精密工学会 画像応用技術専門委員会サマーセミナー2005テキスト,14:35-36 200508
植田智哉、中村明生、久野義徳

人間とロボットのコミュニケーションにおける顔の向き情報の利用
情報処理学会,画像の認識・理解シンポジウム(MIRU2005):CD-ROM 200507
山崎千寿、久野義徳、中村明生

人間とロボットのコミュニケーションにおける顔の向き情報の利用
情報処理学会,画像の認識・理解シンポジウム(MIRU2005) 200507
山崎千寿,久野義徳,中村明生

知的車椅子で自由自在 : すべての人を見て動く車椅子
電子情報通信学会,電子情報通信学会 ネットワークロボット研究会 200506
久野義徳

介護者の意図に沿って動くロボット車椅子
画像センシング技術研究会,第11回画像センシングシンポジウム講演論文集:493-496 200506
岩瀬智裕、中村明生、久野義徳

映像表示ロボットと振動デバイスによる舞踊教示支援
電子情報通信学会,電子情報通信学会情報・システムソサイエティ総合大会特別号:44 200503
清藤新一郎、田端聡、植田智哉、中村明生、久野義徳

Multimodal Dance Training System and Human-Robot Communication Using Vision
ETRI(韓国)での招待講演 200503
Yoshinori Kuno

舞踊簡易教示システムの開発-移動ロボットによる情報提示手法の提案-
立命館大学21世紀COE プログラム「京都アート・エンタテインメント創成研究」『モーションキャプチャ技術と身体動作処理 2004』シンポジウム,立命館大学21世紀COE プログラム「京都アート・エンタテインメント創成研究」『モーションキャプチャ技術と身体動作処理 2004』シンポジウム 200410
中村明生,田端聡,清藤新一郎,久野義徳

舞踊教示支援システムの開発-移動ロボットによる表示システム-
第22回日本ロボット学会学術講演会,第22回日本ロボット学会学術講演会予稿集 200409
中村明生,庭山知之,田端聡,久野義徳

舞踊教示支援システムの開発-音声,デバイスによる教示-
第22回日本ロボット学会学術講演会,第22回日本ロボット学会学術講演会予稿集 200409
田端聡,中村明生,庭山知之,久野義徳

人とロボットの対話の簡略化のための共同注視システム
精密工学会 画像応用技術専門委員会 サマーセミナー,精密工学会 画像応用技術専門委員会 サマーセミナーテキスト,13:59-62 200408
山崎千寿,中村明生,久野義徳

人の指差し方向を見るアクティブカメラシステム
精密工学会 画像応用技術専門委員会 サマーセミナー,精密工学会 画像応用技術専門委員会 サマーセミナーテキスト,13:55-58 200408
森健広,中村明生,久野義徳

視覚によるサービスロボットのための簡略化発話の理解
画像の認識・理解シンポジウム (MIRU 2004),画像の認識・理解シンポジウム(MIRU2004) 講演論文集:309-314 200407
ザリヤナ・モハマド・ハナフィア, 山崎千寿, 中村明生, 久野義徳

コミュニケーションのための人間とロボットのアイコンタクト
画像センシングシンポジウム,第10回画像センシングシンポジウム (SSII 2004) 講演論文集:477-482 200406
櫻井有大,宮内大,中村明生,久野義徳

状況に応じて形状表現の意味を理解する対話物体認識システム
電子情報通信学会,HAIシンポジウム2010
森智史、小林貴訓、久野義徳

その他
「創立30周年記念特集号―ロボット学会新世代:世界に向かって―」特集について
日本ロボット学会,日本ロボット学会誌,30(10):933 201212
久野

ヒューマンインタフェースとロボット:ヒューマンロボットインタラクションって何?
ヒューマンインタフェース学会,ヒューマンインタフェース学会誌,14(4):259-262 201211
久野義徳

「第29回日本ロボット学会学術講演会論文特集号」特集について
日本ロボット学会,日本ロボット学会誌,30(7):663 201209
長谷川泰久、久野義徳

エスノメソドロジーに基づくロボット研究
日本ロボット学会,日本ロボット学会誌,29(1):27-30 2011
久野義徳

書評 多人数インタラクションの分析手法
日本ロボット学会,日本ロボット学会誌,28(2):179 201003
久野義徳

人間とのコミュニケーションに関するビジョン技術
日本ロボット学会,日本ロボット学会誌:630-633 200907
久野義徳,小林貴訓

人間とのコミュニケーションに関するビジョン技術
日本ロボット学会,日本ロボット学会誌,27(6):40-43 200907

シーズ名称: 社会学的分析に基づく人間とロボットのインタラクション技術
,財団法人大阪市都市型産業振興センター・ロボットラボラトリー:37-39 2008

研究室紹介 埼玉大学大学院理工学研究科久野研究室
,4uフォー・ユー 首都圏北部4大学研究室紹介:産学官連携の入り口,1:59-60 2008

自律・遠隔・対話モードをもつネットワークコミュニケーションロボット
,首都圏北部四大学発新技術説明会資料集:119-123 2008

介護者を見て協調移動するロボット車椅子、映像情報院インダストリアル、第43巻、11号, pp.48-52, 2011

介護者を見て協調移動するロボット車椅子、映像情報院メディカル、第43巻、12号, pp.1036-1039, 2011

Preface to Special Issue on the 2012 Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2012)

特許等知的財産

登録済特許
視線制御表示装置と表示方法
コミュニケーションロボット

教育活動実績

授業等

2009 , 前期 , 画像処理工学(工学部)
2009 , 後期 , ヒューマンコンピュータインタラクション(工学部)
2009 , 前期 , 人間機械システム特論(院・理工学前期)