PTSD membayar $ 55 juta kepada operator konten

By | May 13, 2020

Mediator Facebook bekerja di kantor di Austin, Texas

Hak cipta gambar
Gambar kecil

Keterangan gambar

Mediator Facebook bekerja di kantor di Austin, Texas

Facebook setuju untuk membayar $ 55 juta kepada operator konten sebagai hadiah untuk masalah kesehatan mental yang dikembangkan dalam pekerjaan ini.

Perjanjian ini menyelesaikan gugatan class action yang diajukan oleh arbiter, seperti yang pertama kali dilaporkan oleh The Verge.

Facebook mengatakan menggunakan manusia dan kecerdasan buatan (AI) untuk mendeteksi posting yang melanggar kebijakan.

Konglomerat media sosial telah meningkatkan penggunaan AI untuk menghapus konten berbahaya selama kunci virus korona.

Pada tahun 2018, sekelompok moderator Amerika yang disewa oleh perusahaan pihak ketiga meninjau litigasi Facebook karena gagal menciptakan lingkungan kerja yang aman.

Para mediator berpendapat bahwa gangguan stres pasca-trauma (PTSD) terjadi sebagai akibat dari memeriksa gambar-gambar kekerasan dan grafis dari jejaring sosial (kadang-kadang pemerkosaan dan bunuh diri).

Kontrak ini, yang diajukan ke pengadilan di California pada hari Jumat, menyelesaikan kasus ini. Hakim diperkirakan akan menandatangani kesepakatan akhir tahun ini.

Kontrak ini untuk mediator yang telah bekerja di California, Arizona, Texas dan Florida dari tahun 2015 hingga sekarang. Setiap mediator sebelum dan sekarang menerima dana tambahan jika didiagnosis dengan minimal $ 1.000 dan PTSD atau kondisi terkait. Sekitar 11.250 mediator dapat diberi penghargaan.

Facebook juga setuju untuk merilis alat baru yang dirancang untuk mengurangi dampak dari melihat konten berbahaya.

Seorang juru bicara Facebook mengatakan perusahaan "berkomitmen untuk memberikan dukungan tambahan melalui perjanjian ini."

Penyesuaian kunci

Pada bulan Januari, Accenture, kontraktor pihak ketiga yang mempekerjakan mediator di platform media sosial, termasuk Facebook dan YouTube, mulai meminta pekerja untuk menandatangani formulir yang mengakui bahwa mereka dapat mengarah ke PTSD.

Kontrak ini datang ketika Facebook sedang mencari cara untuk mendapatkan lebih banyak pengulas orang kembali online setelah kunci virus korona berakhir.

Hak cipta gambar
NurPhoto

Keterangan gambar

Facebook telah meningkatkan penggunaan AI untuk mendeteksi informasi palsu tentang wabah virus korona.

Perusahaan mengatakan banyak pengulas manusia bekerja di rumah, tetapi beberapa jenis konten tidak dapat dengan aman ditinjau dalam pengaturan mereka. Moderator yang tidak bisa meninjau konten di rumah dibayar tetapi tidak berhasil

Untuk mengimbangi hilangnya pengulas manusia, Facebook menyesuaikan konten menggunakan AI sebagai gantinya.

Seorang konglomerat media sosial mengatakan dalam Laporan Penegakan Standar Komunitas kelima yang dirilis pada hari Selasa bahwa AI telah membantu mendeteksi 90% ekspresi kebencian di muka.

AI juga penting dalam mendeteksi pos berbahaya tentang virus korona. Facebook mengatakan pada bulan April bahwa mereka dapat memberi label sekitar 50 juta posting yang berisi informasi yang salah tentang epidemi.

Namun, teknologi ini masih berjuang untuk mengenali konten berbahaya dari gambar video. Mediator manusia sering menemukan nuansa atau permainan kata yang lebih baik dalam meme atau klip video, membuatnya lebih mudah untuk menemukan konten yang berbahaya.

Facebook saat ini sedang mengembangkan jaringan saraf yang disebut SamSearchNet dan mengatakan dapat mendeteksi salinan gambar yang hampir identik yang berisi informasi yang salah atau menyesatkan.

Menurut Mike Schroepfer, chief technology officer untuk raksasa media sosial, ini akan fokus pada "kasus kesalahan informasi baru" daripada melihat "variasi yang sama" dari gambar yang sudah ditinjau oleh pengulas manusia.


Leave a Reply

Your email address will not be published. Required fields are marked *