Siriってアイホンに入っているものですよね アップルがSiriを止める: ずくなしの冷や水

2019年08月04日

Siriってアイホンに入っているものですよね アップルがSiriを止める

音声を聞き取りそれで機械を操作する仕組みがいろいろ出回っています。
前から書いていますが、そういう音声データは、多用途に使われています。
SEXの際の喘ぎ声や睦言まで。聞き分けるためにネイティブまで雇っているとか。
読者の中で使っておられる方もおられるらしい。

音声だけでなく、カメラから画像ものぞかれているでしょう。
もちろん、メールの内容やいろいろな嗜好も把握されています。

周りの誰も注目してくれない、相手してくれないから、そんな注目されるヒトになるのがうれしい?
でもね、あなたの情報は、human-trafficking や臓器移植の提供者としての適性を審査されていることのほうが多いと思いますよ。

いつの間にか、あなたのアパートが空室になってしまう、そういうことになるのです。エプスタインのニュース読んだでしょう?

続報も出ました。
RT2019/8/4
Apple suspends Siri program that allows employees to listen in on users' private conversations
Apple has announced it is temporarily suspending its program which monitored recordings from AI assistant Siri after reports that it allowed the company’s human contractors to listen in on private conversations.

“While we conduct a thorough review, we are suspending Siri grading globally,” Apple said in a comment to Business Insider.

The decision follows a report from the Guardian, last week, which revealed that company workers around the globe who review the recordings from the voice assistant regularly listen to users’ private conversations.

According to an Apple whistleblower, a small part of Siri recordings are frequently passed to human contractors working for quality control, or grading, of Siri responses to commands. The stated aim is to “improve and develop” Siri functions, and assess, among other things, whether the voice assistant was activated accidentally or on purpose, whether Siri was helpful, and whether its response to the query was appropriate.

While Apple does not explicitly mention any human involvement in Siri’s training in the assistant’s documentation, it did acknowledge that “a small portion of Siri requests are analyzed to improve Siri and dictation [to help] understand you better and recognize what you say.”

However, given the number of ways Siri can be activated, the voice recordings sent for evaluation revealed a large number of cases when Siri was activated accidentally. The contractors were therefore left to deal with recordings of confidential medical information, drug deals, or couples having sex, as part of their job in evaluating Siri’s effectiveness.

Apart from suspending the AI’s grading program and its thorough review, Apple has promised users it will add an option for the user to choose whether to participate in Siri grading or not.

“We are committed to delivering a great Siri experience while protecting user privacy […] As part of a future software update, users will have the ability to choose to participate in grading,” the company stated.

みゆうさんが訳してくれた次の記事は、若い女性は絶対に知っておいたほうが良い情報ですよね。日本ではレイプしても起訴されない例が増えています。「旦那! この子とこの子は、あの時の乱れ方が激しくて、しょっちゅう別の男を引き入れています。簡単にいけますよ!」と狙いをつけられてしまうことも・・・


RT 2019/7/27
シリ(Siri)、「日常的に」性交渉を録音 「数えきれないほどの」プライベートな瞬間をAppleの請負人に送信

AIアシスタントであるAppleのシリ(Siri)は、性交渉中の音声、身体的弱点といった医療情報、麻薬取引、その他のプライベートな瞬間を、ユーザーの知らない間に、「等級」を評価する人間に送信している、と内部告発者が明らかにした。

AppleのSiriによる音声補助機能(voice assistant)で録音された音声は、世界中の(人間である)請負人(訳注:仕事としてその業務を請け負って行っている人)に送信されている。匿名の請負人がガーディアンに語ったところによれば、これらの請負人たちは、反応の質が高いかどうか、起動が適切かどうかといった点に基づいて、AIを評価している。彼らは、(AIの)故意でない起動はAppleが設定しているよりもかなり多い(特にアップル・ウォッチのユーザー)と主張し、会社に対して問題の存在を認めるよう求めている。

「医師と患者の間でかわされるプライベートな討議、商取引、犯罪のように見える取引、性交渉などの際に生じる音声が、数えきれないほど録音されている。これらの録音には、ユーザーの現在位置や、コンタクトの詳細、アプリのデータなどを伴って表示される」ことを、内部告発者は明らかにした。

(以下、リンク先のタイトルのみ)

Amazon、アレクサの録音は、ユーザーが消去した後も残る場合があると認める

「アレクサ、誰が私を盗み聞きしてるの?」 何千人もの人間が、Amazonのデバイスから「(音声の)断片」をじっと聞いている

アレクサ、私のご近所さんは何をしてるの? 「ヒューマン・エラー」によって、ユーザーが他人の生活を盗み聞きできる場合も

Amazonの、子どもにやさしいエコー・ドット(Echo Dot)は、子どものプライバシー法に「著しく違反している」ことが調査で判明

外注されたスパイ行為:Google、「多少の」録音を聞き取るための「言語のエキスパート」の存在を認める

「匿名データ」から個人を特定しなおすことは、誰にでもできる 研究員が主張、あなたも試してみて

RT2019/7/27
Siri ‘regularly’ records sex encounters, sends ‘countless’ private moments to Apple contractors
Apple’s Siri AI assistant sends audio of sexual encounters, embarrassing medical information, drug deals, and other private moments recorded without users’ knowledge to human ‘graders’ for evaluation, a whistleblower has revealed.

Recordings from Apple’s Siri voice assistant are fed to human contractors around the world, who grade the AI based on the quality of its response and whether its activation was deliberate, according to an anonymous contractor who spoke to the Guardian. They claimed accidental activations are much more frequent than Apple lets on, especially with Apple Watch users – and wants the company to own up to the problem.

“There have been countless instances of recordings featuring private discussions between doctors and patients, business deals, seemingly criminal dealings, sexual encounters and so on. These recordings are accompanied by user data showing location, contact details, and app data,” the whistleblower revealed.


Amazon admits it keeps some Alexa recordings even when users delete them

'Alexa, who's eavesdropping on me?' 1000s of humans reportedly audit 'snippets' from Amazon devices

Alexa, what’s my neighbor doing? ‘Human error’ allows user to eavesdrop on stranger’s life

Amazon’s kid-friendly Echo Dot is ‘blatant violation’ of child privacy laws, investigation finds

Outsourced spying: Google admits ‘language experts’ listen to ‘some’ assistant recordings

ANYONE can be re-identified from ‘anonymous data’, researchers claim & let you TEST it
posted by ZUKUNASHI at 11:23| Comment(2) | デジタル・インターネット
この記事へのコメント
読者の皆さんの関心の高そうな記事をもうひとつ。
アップしてくださる記事は、どれも訳せたら良いのですが。。。


Posted by みゆう at 2019年07月29日 21:49
いいえ、国際情勢を読むうえで欠かせない基本情報や身を守るうえで知っておいたほうが良いものだけでも訳していただけると助かる読者は多いと思います。
私がアップする海外情報は、将来何か大きな動きに結び付くかもしれないその萌芽となりそうなものやその時の判断材料になりそうなものも拾っています。
でも、海外情報は面白いですよね。

暖かいお言葉ありがとうございます。
Posted by ZUKUNASHI at 2019年07月29日 22:06
コメントを書く
お名前: [必須入力]

メールアドレス: [必須入力]

ホームページアドレス:

コメント: [必須入力]

※ブログオーナーが承認したコメントのみ表示されます。