May 6, 2015
JSDD-Orient Industry Collaboration Center for Human-Interactive Robotics Research in the Bunkyo Ward of Tokyo has designed an assisted suicide support robot with the face of an innocent, loveable cartoon-like bear to aid patients in self-euthanasia named SeppuKuma.
SeppuKuma also offers 23 very different methods one can choose to end their life, including Everlasting Sleep (lethal injection), Pillow Kisses (suffocation), Peaceful Breath (helium asphyxia) and Sleepy time Hug which is where the robotic bear strangles its partner until their pulse stops for 15 minutes.
http://www.iflscience.org/japan-engineers-design-robotic-bear-to-aid-in-assisted-suicide/
SeppuKuma (в вольном переводе Суицидальный Мишка) призван помочь тем самоубийцам, кто не в силах сделать это самостоятельно, в силу физических, или психологических причин.
SeppuKuma предлагает на выбор 23 способа с помощью которых можно свести счеты с жизнью, в том числе Everlasting Sleep (смертельная инъекция), Pillow Kisses (удушение), Peaceful Breath (асфиксия гелием) и Sleepy time Hug (мишка душит пациента до полной остановки пульса).
Тэги: May2015 Новости Общество Техника
posted by 911USTAS at May 6, 2015 СвернутьЕсть три общеизвестных закона робототехники сформулированных впервые А.Азимовым:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Будут ли создатели роботов соблюдать их ?
posted by мини_я at May 6, 2015 СвернутьЛюди представляют роботов как копии себя. Азимов описывал роботов так же - как подобия людей. Практически роботы, симулирующие человеческое тело и человеческий разум вряд ли нужны, если только не для секса. Роботы для всех остальных задач вряд ли будут копировать человека внешне и тем более вряд ли будут копировать его мышление. Посему говорить о правилах Азимова бессмысленно. Скорее всего будет тупо "Не стой под краном". Или "не засовывай робота для чистки канализации себе в задницу".
posted by hb at May 6, 2015 СвернутьНа лицо - вылитый педобир! :)
posted by мини_я at May 6, 2015 СвернутьДа, я тоже потом заметил.
posted by 911USTAS at May 6, 2015 СвернутьУзкопрофильные роботы, скорее всего, будут безопасны и человеку останется соблюдать элементарную ТБ при обслуживании.
А вот искусственный интеллект будет создан наверняка и неважно будет ли он походить на человека внешне, а важно другое - сможет ли он нанести вред человеку или человечеству.
posted by мини_я at May 6, 2015 СвернутьДа я тоже считаю, что это человечество давно пора уничтожить...
posted by 911USTAS at May 6, 2015 СвернутьВроде как есть такая гипотеза,что землю несколько раз "засеивали" и пока остановились на версии 5.0...
posted by tveye at May 6, 2015 СвернутьБудка самоубийц? Давно пора.
posted by 911USTAS at May 11, 2015 СвернутьСамая важная задача, стоящая перед робототехникой в будущем — это обеспечение управления коллективами роботов. Коллектив машин способен выполнять качественно иные задачи, чем один робот.
Мне кажется, что общество возникло тогда, когда появилось речевое общение между отдельными субъектами. И, знаете, роботы начали общаться. Они переговариваются — для них делают специальные языки. Я допускаю, что когда-нибудь они будут обсуждать меня, говоря друг другу, что, мол, этот оператор сегодня не в форме, давайте не будем слушать его команды и сделаем что-нибудь самостоятельно.
После этого возникает уже задача взаимодействия коллективов людей и роботов. Не успеем мы оглянуться, как роботы будут включены в наше общество. В связи с этим возникают проблемы этического, юридического и социально-психологического характера.
Поэтому сейчас уже разрабатываются положения, выросшие из первого закона Азимова, который гласит, что робот не должен причинять вред оператору своим действием или бездействием. Второй же закон гласит, что робот не должен причинять вред и себе, если это не противоречит первому закону. Но как быть с военными роботами, которые убивают людей, таким образом нарушая первый закон? Здесь нужно провести какую-то грань, ведь приняли же мы законы, запрещающие применение ядерного оружия. Без соответствующих международных договоренностей роботы могут стать не менее опасными, чем атомная бомба.
m.lenta.ru/articles/2015/05/11/robot
Архив:
Jul2024 Jun2024 May2024 Apr2024 Mar2024 Feb2024 Jan2024 Dec2023 Nov2023 Oct2023 Sep2023 Aug2023 Jul2023 Jun2023 May2023 Apr2023 Mar2023 Feb2023 Jan2023 Dec2022 Nov2022 Oct2022 Sep2022 Aug2022 Jul2022 Jun2022 May2022 Apr2022 Mar2022 Feb2022 Jan2022 Dec2021 Nov2021 Oct2021 Sep2021 Aug2021 Jul2021 Jun2021 May2021 Apr2021 Mar2021 Feb2021 Jan2021 Dec2020 Nov2020 Oct2020 Sep2020 Aug2020 Jul2020 Jun2020 May2020 Apr2020 Mar2020 Feb2020 Jan2020 Dec2019 Nov2019 Oct2019 Sep2019 Aug2019 Jul2019 Jun2019 May2019 Apr2019 Mar2019 Feb2019 Jan2019 Dec2018 Nov2018 Oct2018 Sep2018 Aug2018 Jul2018 Jun2018 May2018 Apr2018 Mar2018 Feb2018 Jan2018 Dec2017 Nov2017 Oct2017 Sep2017 Aug2017 Jul2017 Jun2017 May2017 Apr2017 Mar2017 Feb2017 Jan2017 Dec2016 Nov2016 Oct2016 Sep2016 Aug2016 Jul2016 Jun2016 May2016 Apr2016 Mar2016 Feb2016 Jan2016 Dec2015 Nov2015 Oct2015 Sep2015 Aug2015 Jul2015 Jun2015 May2015 Apr2015 Mar2015 Feb2015 Jan2015 Dec2014 Nov2014 Oct2014 Sep2014 Aug2014 Jul2014 Jun2014 May2014 Apr2014 Mar2014 Feb2014 Jan2014 Dec2013 Nov2013 Oct2013 Sep2013 Aug2013 Jul2013 Jun2013 May2013 Apr2013 Mar2013 Feb2013 Jan2013 Dec2012 Nov2012 Oct2012 Sep2012 Aug2012 Jul2012 Jun2012 May2012 Apr2012 Mar2012 Feb2012 Jan2012 Dec2011 Nov2011 Oct2011 Sep2011 Aug2011 Jul2011 Jun2011 May2011 Apr2011 Mar2011 Feb2011 Jan2011 Dec2010 Nov2010 Oct2010 Sep2010 Aug2010 Jul2010 Jun2010 May2010 Apr2010 Mar2010 Feb2010 Jan2010 Dec2009 Nov2009 Oct2009 Sep2009 Aug2009 Jul2009 Jun2009 May2009 Apr2009 Mar2009 Feb2009 Jan2009 Dec2008 Nov2008 Oct2008 Sep2008 Aug2008 Jul2008 Jun2008 May2008 Apr2008 Mar2008 Feb2008 Jan2008 Dec2007 Nov2007 Oct2007 Sep2007 Aug2007 Jul2007 Jun2007 May2007 Apr2007 Mar2007 Feb2007 Jan2007 Dec2006 Nov2006 Oct2006 Sep2006 Aug2006 Jul2006 Jun2006 May2006 |
|
| |