特黄特色三级在线观看免费,看黄色片子免费,色综合久,欧美在线视频看看,高潮胡言乱语对白刺激国产,伊人网成人,中文字幕亚洲一碰就硬老熟妇

學(xué)習(xí)啦 > 在線閱讀 > 故事大全 > 故事 > 關(guān)于道德經(jīng)的小故事

關(guān)于道德經(jīng)的小故事

時間: 春芳953 分享

關(guān)于道德經(jīng)的小故事

  在社會中穿梭忙碌的人們,身上一定要需要兩種最重要的東西,一種是知識,而另一種是道德。如果說知識是進入社會,貢獻社會的法寶,那么,道德就是立足于社會的身份證。沒有道德,就不能在社會中生存。下面是學(xué)習(xí)啦小編為您整理的關(guān)于道德經(jīng)的小故事,希望對你有所幫助!

  關(guān)于道德經(jīng)的小故事篇一:愛的道德

  布拉格實在非常小,小到只用半天時間就能走完。但是根據(jù)米蘭·昆德拉小說《生命不能承受之輕》改變的電影《布拉格之戀》讓它聞名于世。

  卡夫卡生前就居住在這個城市的黃金小巷22號。卡夫卡每天都要到西貝斯卡大街的雅可咖啡館里進行思考和寫作,維持生命的就是老板送的幾片面包,他從來不問世事??ǚ蚩ǖ奶亓ⅹ毿幸鹆艘粋€女人的注意。她坐到卡夫卡對面,從桌子上拿起他寫好的稿紙閱讀,卡夫卡寫一頁,她便讀一篇——那是《變形計》手稿,在當(dāng)時沒有誰能讀懂,但這個女人是個例外。在離開之前,她通過酒侍留下一張便箋,上面寫著:“我不得不承認,我喜歡上了你和你的作品。”

  這個女人是俄羅斯著名記者密列娜·杰森斯卡。當(dāng)時她已經(jīng)是一位銀行家的夫人,但是杰森斯卡對卡夫卡隱藏了這一切。從此以后,他們開始通過布拉格的綠色郵差交流情感。

  但是,1920年的一個偶然機會讓卡夫卡得知杰森斯卡原來是有夫之婦,他陷入了深深的思索。之后卡夫卡便停止了與杰森斯卡的一切聯(lián)系。1921年,當(dāng)杰森斯卡再次來到布拉格,再次來到這家咖啡館時,她沒有見到卡夫卡。熟悉的亞麻桌布下,空留了一副舊刀叉。

  杰森斯卡來到布拉格的那個晚上,卡夫卡坐在咖啡館幽暗的燈影里給杰森斯卡寫出了最后一封信:“我現(xiàn)在已經(jīng)記不起你臉龐的樣子呢,只有你離開咖啡桌那一霎那的背影及衣飾歷歷在目。”

  他們后來再也沒有見過面。直到卡夫卡彌留之際,人們才聽到已經(jīng)處于昏迷狀態(tài)的他口里呢喃著杰森斯卡的名字。

  不橫刀奪愛,不在愛的名義下茍且,把愛人放在光明之外,把自己放在光明之處。卡夫卡用孤寂的一生表達了自己對愛的尊重——這應(yīng)該就是愛的最高道德了吧。

  關(guān)于道德經(jīng)的小故事篇二:規(guī)則大于道德

  一個人即使有犯罪動機,如果沒有造成犯罪的結(jié)果,法律也對他無可奈何。思想再壞,沒有行動,就不能說他是個壞人。同樣,富人是不是為富不仁,也不是思想品德問題,而是看手段和結(jié)果。

  君子愛財,取之有道,可見愛不愛財無關(guān)緊要,用什么方法去取,才是問題的實質(zhì)。

  曾經(jīng)有某餐館,考驗過食客的道德水平。他們讓食客根據(jù)自己對菜品的滿意程度定價,先吃后定,定多少收多少。此舉一出,食客盈門是自然的,餐館賠本也是自然的。據(jù)記者報道,90%以上的食客都吃得呼兒嗨喲,但這并不妨礙他們都定出了比地板更低的價,普遍只付了不及成本的10%的錢,有的只是象征性地付一兩個硬幣,有的干脆連硬幣都不付,一副“吃大戶”的模樣。消息終于暴出,媒體又抓到了熱點,一個商業(yè)行為上升為一場道德討論,見諸報端的,無不是對國人素質(zhì)之低的切齒痛斥。

  餐館老板難道有病,竟然忘記了自私是人的天性?人不為己,天誅地滅,這句話其實是很符合進化論的。不管富人?窮人,內(nèi)心的貪欲都根深蒂固,人們常說為富不仁,只是因為窮人的不仁沒有暴露出來而已,于是就把不仁的帽子戴到富人頭上,這是不公平的。

  餐館老板清醒得很,我估計,這只不過是一個策劃,是一種促銷手段而已,等到他的餐館聲名鵲起,等到食客嘗出了味道,他再按市場行情收費也不遲。

  曾經(jīng)挑起亞洲金融風(fēng)暴的“金融大鱷”索羅斯,在很多人看來簡直是十惡不赦,但偏偏是他,因為行善而成為第二屆“代頓和平獎”得主。他的主要事跡是捐出巨款,支援波斯尼亞地區(qū)的戰(zhàn)后重建,以及他所領(lǐng)導(dǎo)的量子基金對多項慈善活動的大力支持。此種行為在中國也很多,但大多帶有商業(yè)色彩,因而慣性思維的中國記者就對索羅斯提出這樣的問題:這是您的天性還是樹立形象的需要?索羅斯回答:在金融市場,我只是按規(guī)則辦事,我遵守規(guī)則,談不上道德不道德。

  其實說穿了,也就是因為有高額遺產(chǎn)稅,國外的富豪們才大多在生前捐出大部分的財產(chǎn),不僅是索羅斯,而是一種普遍的現(xiàn)象。富人的仁,不是道德的促成,而是制度的結(jié)果。

  按規(guī)則辦事,這就夠了。

  經(jīng)濟和道德,實際上是兩個范疇,雖然有所交叉,但絕不能混為一談。誰都有不仁的可能,所以才需要市場的規(guī)范,需要法律的約束,讓不仁的行為付出代價,讓不仁的愿望不能實現(xiàn)。富人們?nèi)什蝗剩粌H是人心好不好的問題,更重要的是社會健不健全的表現(xiàn)。如果一個社會到處都在嚷嚷著“為富不仁”,那么不仁的不僅是富人,還有這個社會本身。

  關(guān)于道德經(jīng)的小故事篇三:機器人也要講道德

  根據(jù)科幻作家阿西莫夫的同名小說改編的電影《我,機器人》里有這樣一個場景:2035年的一個早晨,機器人與人類一起穿梭在美國芝加哥繁忙的街道上,它們在送快遞,幫主人遛狗,做搬運工,急著回家給主人拿急救藥品——這并非遙不可及,日前,谷歌公司的機器人汽車項目就有可能讓這一虛構(gòu)成為現(xiàn)實。

  今年5月,美國內(nèi)華達州為一輛搭載谷歌智能駕駛系統(tǒng)的汽車頒發(fā)了牌照,允許這輛無須人工駕駛的汽車在公共道路上測試行駛。據(jù)行業(yè)人士預(yù)計,自動駕駛汽車在歐美有望于3年至5年后投入使用。

  根據(jù)國際機器人聯(lián)合會網(wǎng)站公布的數(shù)據(jù),自1961年以來,全球機器人的銷售總量已達230萬,2011年銷量最高,達到16萬臺。眼下,全球機器人產(chǎn)業(yè)已處在一個蓬勃發(fā)展的上升期。

  阿西莫夫定律的困境

  當(dāng)機器人越來越多地滲透到人們的生活中,由此引發(fā)的法律與道德問題也隨之而來。

  英國謝菲爾德大學(xué)人工智能與機器人學(xué)教授諾爾·沙吉舉例說,設(shè)想你的機器人汽車正在開往停車場,此時一個兒童正在附近玩耍。一輛卡車開來,濺起的塵土干擾了機器人汽車的傳感器,機器人汽車因不能感知兒童的存在而造成交通事故。那么誰應(yīng)該對此負責(zé),是機器生產(chǎn)廠家、軟件工程師還是機器人自身?

  隨著機器人越來越聰明,用途越來越廣泛,機器人最終將面臨這樣一種情境:在不可預(yù)知的條件下做出道德判斷——在有平民存在的情況下,無人飛機是否應(yīng)該對目標(biāo)所在房間開火?參與地震救援的機器人是否應(yīng)該告訴人們?yōu)碾y真相,即使那樣會引發(fā)恐慌?機器人汽車是否應(yīng)該為了避免撞到行人而突然轉(zhuǎn)向,即使那樣會撞到其他人?

  1942年,阿西莫夫提出了機器人三定律:機器人不得傷害人類,或者目睹人類將遭受危險而袖手不管;機器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時例外;機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。

  看似完美的三定律在電影《我,機器人》中遇到了麻煩;在兒童和成人同時出現(xiàn)交通事故時,機器人會計算出成人存活率高,選擇優(yōu)先救成年人,而不是兒童。在這種情況下,如何教會機器人進行道德判斷就被提上了日程。

  像人一樣學(xué)習(xí)道德

  怎么教機器人學(xué)會道德判斷?《道德機器:教會機器人如何判斷對和錯》一書的作者之一、美國印第安納大學(xué)科學(xué)史和科學(xué)哲學(xué)系教授科林·艾倫表示,這要從人類修習(xí)德行的方法中去尋找。

  他舉例說,2010年4月的美國紐約街頭,一名見義勇為的男子在與歹徒搏斗后奄奄一息,但在近兩個小時里,先后有20多名行人路過卻無人伸出援手。該男子終因失血過多而死亡。人們對道德的理解有時候并不和實際行動相符。為什么會這樣呢?

  對此,艾倫解釋說,在現(xiàn)實中,人們往往“本能地”做出反應(yīng),并沒有考慮行為所產(chǎn)生的道德問題。古希臘哲學(xué)家亞里士多德就認為,人需要在現(xiàn)實中不斷地踐行有道德的行為,最終使其成為一種習(xí)慣。在以后再遇到道德選擇時,才能不經(jīng)思考就能表現(xiàn)出良好的品行。

  因此,艾倫認為,可以設(shè)計一些具有簡單規(guī)則的機器人汽車。當(dāng)汽車遇到上述情況的時候,學(xué)習(xí)著去進行救助,然后再根據(jù)一些道德規(guī)范,對機器人汽車的“救助”行為進行分析和肯定,從而逐漸培養(yǎng)起它們的道德感。

  然而,另一個更為復(fù)雜的問題接踵而來。當(dāng)人類本身尚對諸如網(wǎng)絡(luò)下載、墮胎以及安樂死等問題的看法存在分歧的時候,工程師們也不知道應(yīng)該將哪一套道德體系輸入機器人。同時,將一種價值判斷應(yīng)用于具體案例時,也會有分歧。比如,在不傷害到別人的情況下,實話被認為是美德。如果說謊能促進友誼,且不傷害到雙方,這時說謊就是“對的”?;谌祟惖赖碌牟町愋?,機器人的道德可能會有若干版本。

  當(dāng)機器人像人一樣開始學(xué)習(xí)并實踐道德,它們是否會超越和取代人類?艾倫說,他現(xiàn)在還不擔(dān)心這一點,眼下需要做的事是如何教會機器人做出正確的道德判斷。至于怎樣的道德判斷是正確的,這個問題,恐怕連人類有時候都還沒有弄清楚。


猜你喜歡:

1.道德經(jīng)的故事精選

2.道德禮儀小故事

3.日本茶道的有趣小故事

4.陳道明勵志故事3篇

5.激勵上進的小故事

2783627