- ニュース

スクリーンショット:Ian Fuchs/Cult of Mac
ツイッター社は火曜日、返信に「攻撃的または人を傷つける言葉」を使うことを抑制する新しい機能を近々テストすると発表した。
同社はツイートで、2週間のテストの根拠を次のように説明した。
議論が白熱すると、本心ではないことを言ってしまうことがあります。返信を再考していただけるよう、iOS 版では、返信に有害な表現が含まれている場合、公開前に返信を修正できるプロンプトを表示する限定的な実験を実施しています。
— Twitterサポート(@TwitterSupport)2020年5月5日
ユーザーが返信で「送信」をクリックすると、iOS 版 Twitter アプリにポップアップ メッセージが表示され、ツイートに不適切な表現が含まれている可能性があることが通知され、修正するかどうかを尋ねられます。
「投稿する前に、自分の行動や言葉遣いを再考するよう人々に促している。なぜなら、人は感情的になっていることが多く、後悔するような発言をしてしまう可能性があるからだ」とツイッターの信頼性と安全性に関するサイトポリシーのグローバル責任者、スニタ・サリグラム氏はロイター通信とのインタビューで語った。
Twitterはプラットフォームを規制している
Twitterは、プラットフォーム上の憎悪や虐待的なコンテンツを排除するための措置を講じていないとして批判されている。同社のポリシーでは、ユーザーが中傷、人種差別的または性差別的な表現、あるいは品位を傷つけるコンテンツで個人を標的にすることは認められていない。
2017年、Twitterは同社が「センシティブ」とみなすコンテンツを投稿したプロフィールの検閲を開始しました。その少し前には、「攻撃的な」ユーザーを一時的に禁止し、そのユーザーのツイートがフォロワー以外には表示されないようにしました。
サリグラム氏によると、この新しいテストは、常習犯ではない規則違反者を対象とする。テストは世界中で実施されるが、対象は英語のツイートのみとなる。