Робо­ты научи­лись сомне­вать­ся в при­ка­зах чело­ве­ка

0 0
В одном из сце­на­ри­ев робот отка­зы­ва­ет­ся идти впе­ред из-за опас­но­сти паде­ния.

Фото­гра­фия: Gordon Briggs, Matthias Scheutz / Tufts University Иссле­до­ва­те­ли из Уни­вер­си­те­та Тафт­са раз­ра­бо­та­ли систе­му вза­и­мо­дей­ствия робо­та с чело­ве­ком, кото­рая поз­во­ля­ет устрой­ству отка­зать­ся испол­нять неко­то­рые при­ка­зы, если есть доста­точ­ные осно­ва­ния для тако­го пове­де­ния. Доклад о про­де­лан­ной рабо­те был пред­став­лен на кон­фе­рен­ции AI-HRI, крат­ко содер­жа­ние пере­ска­зы­ва­етIEEE Spectrum.

Преж­де, чем выпол­нять полу­чен­ный от чело­ве­ка при­каз, робот про­ве­ря­ет несколь­ко усло­вий, в кото­рые вхо­дит нали­чие необ­хо­ди­мых для выпол­не­ния навы­ков, физи­че­ская воз­мож­ность выпол­не­ния при­ка­за вооб­ще и с уче­том теку­щих обсто­я­тельств, а так­же про­вер­ка суб­ор­ди­на­ции — воз­мож­но, робот вооб­ще не обя­зан выпол­нять при­каз, посту­пив­ший имен­но от это­го чело­ве­ка.

Если по каким-либо при­чи­нам робот не может выпол­нить при­каз, он уве­дом­ля­ет об этом чело­ве­ка, объ­яс­няя при­чи­ны, по кото­рым он отка­зы­ва­ет­ся дей­ство­вать. При этом после уточ­не­ния дан­ных об окру­жа­ю­щей сре­де робот может «пере­ду­мать» и выпол­нить постав­лен­ную зада­чу.

{youtube}0tu4H1g3CtE{/youtube}

Для демон­стра­ции при­ме­ра тако­го пове­де­ния иссле­до­ва­те­ли запи­са­ли несколь­ко видео­ро­ли­ков, в кото­рых робот Nao демон­стри­ру­ет подоб­ное пове­де­ние. Во всех трех сце­на­ри­ях робот обща­ет­ся с чело­ве­ком при помо­щи уст­ной речи и отка­зы­ва­ет­ся выпол­нять при­ка­зы по раз­ным при­чи­нам. В двух при­ме­рах из трех робот, полу­чив уточ­ня­ю­щие дан­ные от чело­ве­ка, в ито­ге выпол­ня­ет при­каз. В тре­тьем слу­чае робот отка­зы­ва­ет­ся выпол­нить постав­лен­ную зада­чу, посколь­ку чело­век, озву­чив­ший при­каз, не обла­да­ет необ­хо­ди­мы­ми пол­но­мо­чи­я­ми.

{youtube}SkAAl7ERZPo{/youtube}

Как отме­ча­ет IEEE Spectrum, речь идет не о «вос­ста­нии машин», а ско­рее о про­вер­ке необ­хо­ди­мых усло­вий для выпол­не­ния зада­чи. Прин­ци­пи­аль­но новой идеи в этом нет — подоб­ные тех­но­ло­гии, напри­мер, при­ме­ня­ют­ся для раз­гра­ни­че­ния досту­па и при пере­да­че дан­ных в вычис­ли­тель­ных систе­мах.

Ранее спе­ци­а­ли­сты из Тех­но­ло­ги­че­ско­го инсти­ту­та Джор­джии научи­лиробо­та общать­ся с людь­ми на раз­ных уров­нях соци­аль­ной актив­но­сти — при высо­ком уровне актив­но­сти робот может пере­бить чело­ве­ка, в то вре­мя как при низ­ком уровне соци­аль­ной актив­но­сти робот боль­ше слу­ша­ет собе­сед­ни­ка.

Нико­лай Ворон­цов

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *