<ロボット工学三原則>
・《第一条》ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。(A robot may not harm a human being, or, through inaction, allow a human being to come to harm.)
・《第二条》ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。(A robot must obey the orders given to it by the human beings, except where such orders would conflict with the First Law.)
・《第三条》ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。(A robot must protect its own existence, as long as such protection does not conflict the First or Second Law.)
コメント
え〜、便利だと思うけどなぁ<ソニータイマー
「新製品の買い時を自らの故障を以てお知らせ」…って、「俺の屍を越えて行け」みたいで泣けるシチュだと思うんだなぁ。
投稿: もり | 2006/02/15 00:25
便利じゃNeeeeeeee!!
……ちょっと照れ笑い風味で、
「やっぱり、壊れるのはいやです。もっと一緒にいたかったなぁって……でも、私にはもう時間がありませんから。……えへへ。ちょっとがんばってきます、私の妹たちをよろしくお願いしますね」
とかいって、最後に精一杯の笑顔を見せてから踵を返し、振り返らずに行く電化製品っ娘なら一生をソニーにささげてもいいかもしれない。
投稿: Johnny-T | 2006/02/16 22:47
ダメですよw
もしその電化製品っ娘が、自分の中にあるソニータイマーに気づいたら、
自己保存の原則(ロボット三原則第三条)との矛盾に気がついて
思考回路がオーバーヒートしますから。
きっと失踪とかしちゃうんですよw
参照
ToHeart Remember my memories
http://www.toheart-r.net/
投稿: トンガリ | 2006/02/17 00:36
トンガリさん
>ムルチ
アレもにたぶんクルスガワ謹製のアイボ三原則みたいなのが入ってるんだ。
参考:http://www.jp.aibo.com/aibostory/dictionary/index_nn.html#s" TARGET="_blank">【Three principle of robotics ・AIBOversion】 「ロボット工学三原則・AIBO版」
AIBOを開発するにあたって、ソニーは、次のようなロボット三原則を定義しました。
《第一条》
ロボットは人間に危害を加えてはならない。
自分に危害を加えようとする人間からも逃げることは許されるが、反撃してはいけない。
《第二条》
ロボットは原則として人間に対して注意と愛情を向けるが、 ときに反抗的な態度を取ることも許される。
《第三条》
ロボットは原則として人間の愚痴を辛抱強く聞くが、 ときには憎まれ口を利くことも許される。
閑話休題(それはともかく)。
件のムルチの話はまだ見てないのだけれど、もしもロボットにソニータイマーが入っていたとして、このタイマーは<ロボット工学三原則>では第二条『ロボットは人間にあたえられた命令に服従しなければならない』の『あたえられた命令』に当たります。つまり、「一定の時間がすぎたら自壊せよ」というものですね。
そして、第一条は第二条に対して、第二条は第三条に対して常に優越ですからこの場合は矛盾は発生しないのです。
……うぉう!なんか今ここすげーSFサイトっぽくね!?
<ロボット工学三原則>
・《第一条》ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。(A robot may not harm a human being, or, through inaction, allow a human being to come to harm.)
・《第二条》ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。(A robot must obey the orders given to it by the human beings, except where such orders would conflict with the First Law.)
・《第三条》ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。(A robot must protect its own existence, as long as such protection does not conflict the First or Second Law.)
いい機会なので、復習がてら書き出してみた。
これってつまりは家電製品の三原則でもあるんですよね。『安全』で『使いやすく』て『壊れにくい』。そういう辺りを考えるとアイボ三原則はネタ的に不充分かなって気もします。
投稿: Johnny-T | 2006/02/21 20:57
>ジョニィさん
なるほど、そういう解釈になるわけですね。
うーん、そうするとセリオさんなら
「ご主人様、残念ですがお別れの時が参りました。
今まで御利用いただき誠にありがとう御座いました。
今後ともクルスガワ製品をよろしくお願いします。」
とか言って、穏やかに息を引き取りそうなのですがねぇ。
マルチだと、ドジってソニータイマーを壊しそうだなぁw
あるいは、セリオにはない「感情回路」のせいで愁嘆場になること間違いなしw
そうすると、マルチオタクが「マルチに人権を!!」とかデモをするわけですよw
映画「アンドリュー NDR114」の逆バージョンですね。
投稿: トンガリ | 2006/02/25 12:14
>>マルチだと、ドジってソニータイマーを壊しそうだなぁw
「故障することにより、人間の命令を無視してもよい状況を作り出す」っていうのはロボットの叛乱ではないのかっ。
投稿: もり | 2006/02/25 13:03
・トンガリさん
>セリオにはない「感情回路」のせいで愁嘆場になること間違いなしw
否!否!否っーー!!
むしろ感情回路などというエミュレート装置のない冷血ロボットが、感情が発生したとしか思えない「何か」に翻弄される姿こそが萌えるのだー!
「わたしには人間の感情にあてはまるようなものはありません。ですが、あなたとお別れすることを考えると、わたしの体に加えられる圧迫がわたしの感覚に大きく働きかけるように思われますし、他にもわたしに識別しうる変化がいくつかあります。わたしが感じているものは、おおまかに言えば、あなたの悲しみという感情に相当するものではないでしょうか」
とか言い出すんだよ。
ロボットが自分の意思で根性論をはきだしたらもう最高だ!
「1955年と88年のドジャースを覚えていますか?誰もが負けると思っていた。確かに9回裏ツーアウトで、確率からいけば勝ち目はない。でも、そんなものクソくらえでしょう?」
とか、
「あなたの行動は、非論理的です。容認しかねます」
とか言ってたAIが
「あなたに影響されて、私は壊れてしまったのかもしれません。 さあ、"気合"を入れて、”奇跡”を起こしましょう」 なんてイカレたセリフをはきだした日にはぼくは!ぼくは!
衛生兵――っ! 衛生兵――――!!(゚Д゚≡゚Д゚)
中の人がやられたー!?
……ええと、何の話だっけ?萌えAI?
・もりさん
>「故障することにより、人間の命令を無視してもよい状況を作り出す」
その展開はかなりアリですね。いいなぁ、物語と無関係だと思われていた壊れたロボットがすべての謎を解く鍵だった。たしか、アシモフの「(ネタバレにつき伏せ)」がかなり近い展開でした。
投稿: Johnny-T | 2006/03/01 21:35