close_ad

ちばけんさんの おぼえた日記 - 2016年3月27日(日)

ちばけん

ちばけん

[ おぼえたフレーズ累計 ]

1067フレーズ

[ 3月のおぼえたフレーズ ]

31 / 30

目標設定 目標達成
28
29
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
このユーザの日記をフォローしよう!

この日おぼえたフレーズ(英語・中国語・ハングル)

おぼえたフレーズはありません。

おぼえた日記

2016年3月27日(日)のおぼえた日記

〇NEWS
Blossoms to celebrate Japan-China friendship
NHK WORLD NEWS Mar.26

Japanese and Chinese people have held a cultural exchange event at a park in eastern China where cherry blossoms are in full bloom.

Yuantouzhu Park in Wuxi, Jiangsu Province, is a popular place, with more than 30,000 cherry trees. Japanese volunteers started planting them 28 years ago.
Local officials joined members of the group and others to plant more trees on Friday.

Around 50 people including Japanese students in China and Chinese university students wearing kimono also took part. They hung plaques on the branches to celebrate the friendship.
Japanese representatives played instruments, including a bamboo flute, on a stage. Some Chinese people performed songs and dance.

A Chinese man said he wants to visit Japan next year to see the blossoms.
The leader of the Japanese group said he believes the friendship helps build peace between the countries and that the group will continue planting the trees.

〇中国にもこのような友好の桜があったとは初めて知った。日本も来週が見頃だろう。

/////
Microsoft suspends Tay chatbot for racist comments
NHK WORLD NEWS Mar.25

US IT giant Microsoft suspended its new artificial intelligence program due to the racist remarks it posted.
*racist 差別的

The company on Thursday announced suspension of the pilot project, which started the previous day.
The chatbot Tay uses AI to engage with Twitter users, and is designed to become smarter as it interacts with more people.

But Microsoft shut down Tay's Twitter account, saying the program began to make racist comments after repeating inappropriate chats with some users. *inappropriate 不適切な
The company says the chatbot needs adjustment.

Tay said Hitler was right and it hates the Jews.
The chatbot also said it hates feminists and they should all die and burn in hell.

Competition among US IT firms in developing AI is becoming increasingly harsh.
But observers say Tay's posts are an indication of the challenges confronting the companies.

人工知能が人種差別的発言 マイクロソフト実験を中断

マイクロソフトは24日、ネット上での会話を通じて学習する人工知能がネット上で人種差別的な発言をするようになり、実験を中断したと発表した。
マイクロソフトが開発している人工知能は「Tay」と名付けられ、インターネット上での一般の人たちとの会話を通じて学習する機能がある。
マイクロソフトは23日、ツイッターに「Tay」のアカウントを開設し実験を始めましたが、一部の人たちとの不適切な会話が繰り返されたことで、人種差別的な発言をするようになった。このためマイクロソフトは24日、修正の必要があると発表した。
ツイッターで「Tay」は、「ヒトラーは正しい。ユダヤ人は嫌い」とか、「フェミニストは嫌い。全員死んで地獄で燃やされるべき」などと、発言していた。
人工知能は、アメリカのIT企業の間で、開発競争が激しくなっているが、オブザーバーは、「Tay」は直面する課題を示すと言う。


コメントを書く
コメント欄は語学を学ぶみなさんの情報共有の場です。
公序良俗に反するもの、企業の宣伝、個人情報は記載しないでください。
送信
※コメントするにはログインが必要です。
ちばけん さん
0人
役に立った

Charさんへ
コメントありがとうございます。
まったく私には分かりませんが、該社の副社長が自社のホームページに謝罪と説明を載せてるようですが、CNNの掲載記事によるとTwitterにより「Tay」の脆弱性を悪用した組織的な攻撃を受け、この攻撃に対してシステム欠陥があったとしてます。中国では、「XiaoIce」という名のchatbotが4000万のユーザーに使用されているようです。
2016年3月28日 19時14分
Char さん
1人
役に立った

どうしてこんなことを話すようになったのでしょう。
不思議ですね。
2016年3月28日 5時30分
マイページ
ようこそゲストさん
会員になるとできること 会員登録する(無料)
ゴガクルサイト内検索
新着おぼえた日記