Еще не будка самоубийств, но уже хоть что-то.

Всяческий Бред - Идти на Главную Страницу >>>

Категории:

Полезные Сведенья
Кухонная Философия
Общество и его пороки
Новости
Еда и Питье
Техника
Разное
Личное
Природа
Фото/Видео
"Веселые" Картинки
Юмор


Пишите Письма



Реклама:

Реклама

May 6, 2015


JSDD-Orient Industry Collaboration Center for Human-Interactive Robotics Research in the Bunkyo Ward of Tokyo has designed an assisted suicide support robot with the face of an innocent, loveable cartoon-like bear to aid patients in self-euthanasia named SeppuKuma.

SeppuKuma also offers 23 very different methods one can choose to end their life, including Everlasting Sleep (lethal injection), Pillow Kisses (suffocation), Peaceful Breath (helium asphyxia) and Sleepy time Hug which is where the robotic bear strangles its partner until their pulse stops for 15 minutes.

http://www.iflscience.org/japan-engineers-design-robotic-bear-to-aid-in-assisted-suicide/

SeppuKuma (в вольном переводе Суицидальный Мишка) призван помочь тем самоубийцам, кто не в силах сделать это самостоятельно, в силу физических, или психологических причин.

SeppuKuma предлагает на выбор 23 способа с помощью которых можно свести счеты с жизнью, в том числе Everlasting Sleep (смертельная инъекция), Pillow Kisses (удушение), Peaceful Breath (асфиксия гелием) и Sleepy time Hug (мишка душит пациента до полной остановки пульса).



Тэги: May2015 Новости Общество Техника

Темы, имеющие некоторое отношение к этой (русскоязычный поиск в mysql все же очень не совершенен):
Мы стали более лучше убиваться, виноват интернет March 20, 2017
Удручающие данные May 29, 2008
Фраза дня January 11, 2017
Нездоровый ажиотаж вокруг авиоаварии в Нью-Йорке October 11, 2006
Про Олимпиаду December 6, 2017


posted by 911USTAS at May 6, 2015 Свернуть
Есть три общеизвестных закона робототехники сформулированных впервые А.Азимовым:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Будут ли создатели роботов соблюдать их ?
posted by мини_я at May 6, 2015 Свернуть
Люди представляют роботов как копии себя. Азимов описывал роботов так же - как подобия людей. Практически роботы, симулирующие человеческое тело и человеческий разум вряд ли нужны, если только не для секса. Роботы для всех остальных задач вряд ли будут копировать человека внешне и тем более вряд ли будут копировать его мышление. Посему говорить о правилах Азимова бессмысленно. Скорее всего будет тупо "Не стой под краном". Или "не засовывай робота для чистки канализации себе в задницу".


posted by hb at May 6, 2015 Свернуть
На лицо - вылитый педобир! :)
posted by мини_я at May 6, 2015 Свернуть
Да, я тоже потом заметил.


posted by 911USTAS at May 6, 2015 Свернуть
Узкопрофильные роботы, скорее всего, будут безопасны и человеку останется соблюдать элементарную ТБ при обслуживании.
А вот искусственный интеллект будет создан наверняка и неважно будет ли он походить на человека внешне, а важно другое - сможет ли он нанести вред человеку или человечеству.

posted by мини_я at May 6, 2015 Свернуть
Да я тоже считаю, что это человечество давно пора уничтожить...


posted by 911USTAS at May 6, 2015 Свернуть
Вроде как есть такая гипотеза,что землю несколько раз "засеивали" и пока остановились на версии 5.0...

posted by tveye at May 6, 2015 Свернуть
Будка самоубийц? Давно пора.


posted by 911USTAS at May 11, 2015 Свернуть
Самая важная задача, стоящая перед робототехникой в будущем — это обеспечение управления коллективами роботов. Коллектив машин способен выполнять качественно иные задачи, чем один робот.
Мне кажется, что общество возникло тогда, когда появилось речевое общение между отдельными субъектами. И, знаете, роботы начали общаться. Они переговариваются — для них делают специальные языки. Я допускаю, что когда-нибудь они будут обсуждать меня, говоря друг другу, что, мол, этот оператор сегодня не в форме, давайте не будем слушать его команды и сделаем что-нибудь самостоятельно.
После этого возникает уже задача взаимодействия коллективов людей и роботов. Не успеем мы оглянуться, как роботы будут включены в наше общество. В связи с этим возникают проблемы этического, юридического и социально-психологического характера.
Поэтому сейчас уже разрабатываются положения, выросшие из первого закона Азимова, который гласит, что робот не должен причинять вред оператору своим действием или бездействием. Второй же закон гласит, что робот не должен причинять вред и себе, если это не противоречит первому закону. Но как быть с военными роботами, которые убивают людей, таким образом нарушая первый закон? Здесь нужно провести какую-то грань, ведь приняли же мы законы, запрещающие применение ядерного оружия. Без соответствующих международных договоренностей роботы могут стать не менее опасными, чем атомная бомба.
m.lenta.ru/articles/2015/05/11/robot

пользователь: пароль:
регистрироваться  Залогинится под OpenID


Архив:

Jul2024   Jun2024   May2024   Apr2024   Mar2024   Feb2024   Jan2024   Dec2023   Nov2023   Oct2023   Sep2023   Aug2023   Jul2023   Jun2023   May2023   Apr2023   Mar2023   Feb2023   Jan2023   Dec2022   Nov2022   Oct2022   Sep2022   Aug2022   Jul2022   Jun2022   May2022   Apr2022   Mar2022   Feb2022   Jan2022   Dec2021   Nov2021   Oct2021   Sep2021   Aug2021   Jul2021   Jun2021   May2021   Apr2021   Mar2021   Feb2021   Jan2021   Dec2020   Nov2020   Oct2020   Sep2020   Aug2020   Jul2020   Jun2020   May2020   Apr2020   Mar2020   Feb2020   Jan2020   Dec2019   Nov2019   Oct2019   Sep2019   Aug2019   Jul2019   Jun2019   May2019   Apr2019   Mar2019   Feb2019   Jan2019   Dec2018   Nov2018   Oct2018   Sep2018   Aug2018   Jul2018   Jun2018   May2018   Apr2018   Mar2018   Feb2018   Jan2018   Dec2017   Nov2017   Oct2017   Sep2017   Aug2017   Jul2017   Jun2017   May2017   Apr2017   Mar2017   Feb2017   Jan2017   Dec2016   Nov2016   Oct2016   Sep2016   Aug2016   Jul2016   Jun2016   May2016   Apr2016   Mar2016   Feb2016   Jan2016   Dec2015   Nov2015   Oct2015   Sep2015   Aug2015   Jul2015   Jun2015   May2015   Apr2015   Mar2015   Feb2015   Jan2015   Dec2014   Nov2014   Oct2014   Sep2014   Aug2014   Jul2014   Jun2014   May2014   Apr2014   Mar2014   Feb2014   Jan2014   Dec2013   Nov2013   Oct2013   Sep2013   Aug2013   Jul2013   Jun2013   May2013   Apr2013   Mar2013   Feb2013   Jan2013   Dec2012   Nov2012   Oct2012   Sep2012   Aug2012   Jul2012   Jun2012   May2012   Apr2012   Mar2012   Feb2012   Jan2012   Dec2011   Nov2011   Oct2011   Sep2011   Aug2011   Jul2011   Jun2011   May2011   Apr2011   Mar2011   Feb2011   Jan2011   Dec2010   Nov2010   Oct2010   Sep2010   Aug2010   Jul2010   Jun2010   May2010   Apr2010   Mar2010   Feb2010   Jan2010   Dec2009   Nov2009   Oct2009   Sep2009   Aug2009   Jul2009   Jun2009   May2009   Apr2009   Mar2009   Feb2009   Jan2009   Dec2008   Nov2008   Oct2008   Sep2008   Aug2008   Jul2008   Jun2008   May2008   Apr2008   Mar2008   Feb2008   Jan2008   Dec2007   Nov2007   Oct2007   Sep2007   Aug2007   Jul2007   Jun2007   May2007   Apr2007   Mar2007   Feb2007   Jan2007   Dec2006   Nov2006   Oct2006   Sep2006   Aug2006   Jul2006   Jun2006   May2006