16 Desember 2025 [Tech]
(Balaam, AJ (2025). Dalam F. Buontempo, editor, Overload 190 (2025).)
Saya memilih untuk menghindari penggunaan “AI” (yang saya maksud adalah Model Bahasa Besar). Inilah alasannya:
- mereka mempunyai dampak buruk terhadap lingkungan,
- mereka dilatih dengan mengeksploitasi dan membuat trauma jutaan pekerja berupah rendah,
- mereka memberikan hasil yang bias dan sangat salah, dan
- mereka secara tidak adil menggunakan karya kreatif orang.
Dampak lingkungan
Antara tahun 2010 dan 2020, energi yang digunakan oleh pusat data di seluruh dunia hanya meningkat sedikit, namun sejak itu penggunaan energi meningkat tajam, didorong oleh perluasan AI. Yang memperparah masalah ini adalah karena pusat data ini menggunakan lebih banyak energi daripada yang diperkirakan atau disediakan oleh pembangkit listrik yang ada, intensitas karbon dalam penggunaan listrik jauh lebih tinggi dari rata-rata (48% lebih tinggi di AS menurut sebuah penelitian).
Didorong oleh AI, pusat data diperkirakan akan menggunakan energi dua kali lipat pada tahun 2030. Di Irlandia pada tahun 2025, pusat data menggunakan hampir seperlima pasokan listrik, meskipun penggunaan kendaraan listrik meningkat dalam beberapa tahun terakhir.
Kecuali kita mengubah arah, hal ini tidak akan melambat atau berkelanjutan. Mengutip Sam Altman: “Anda seharusnya memperkirakan OpenAI akan menghabiskan triliunan dolar untuk pembangunan pusat data dalam waktu yang tidak lama lagi”
Keinginan rakus akan lebih banyak data dan komputasi sudah terprogram dalam gerakan AI. Hal ini didorong oleh keyakinan yang diungkapkan Sam Altman seperti ini di blognya: “tampaknya Anda dapat mengeluarkan uang dalam jumlah yang sewenang-wenang dan mendapatkan keuntungan yang berkelanjutan dan dapat diprediksi”. Gerakan ini dibangun di atas gagasan bahwa jika kita mengonsumsi lebih banyak sumber daya, kita akan mencapai kesuksesan yang lebih besar dan lebih besar. Selama mereka didorong oleh keyakinan ini, kita tidak akan pernah bisa mengharapkan mereka untuk berupaya membatasi penggunaan energi mereka.
Pusat data sering kali merugikan wilayah setempat, dan sering kali berlokasi di wilayah yang mengalami kekurangan sosial. Mereka mengkonsumsi energi dan air yang sebenarnya dapat digunakan oleh manusia, dan menyebabkan masalah polusi dan kekurangan energi.
Untuk rincian lebih lanjut mengenai dampak AI terhadap lingkungan, saya merekomendasikan (mungkin mengejutkan) artikel Teen Vogue “ChatGPT Ada di Mana-Mana – Mengapa Kita Tidak Membicarakan Dampak Lingkungannya?”.
Eksploitasi pekerja
Perusahaan AI tidak suka membicarakannya, namun model mereka hanya berfungsi jika dilengkapi dengan data buatan manusia dalam jumlah besar. Data ini tidak hanya diambil secara pasif dari Internet: model-model tersebut dibuat berdasarkan hasil kerja jutaan orang yang secara aktif mengklasifikasikan gambar dan memberi peringkat jawaban, membentuk model untuk menghasilkan hasil yang terlihat dan terdengar aman dan masuk akal.
Kebanyakan orang yang terlibat dibayar dengan sangat rendah. Banyak dari mereka yang trauma dengan gambaran dan ucapan mengerikan yang diminta untuk mereka klasifikasikan.
Pekerja yang dibayar antara $1,32 dan $2 per jam di Kenya (upah yang digambarkan sebagai “sebuah penghinaan”) berbicara tentang pekerjaan mereka seperti ini: “Anda membaca konten ini, hari demi hari, selama berhari-hari, berminggu-minggu, dan berbulan-bulan, konten ini meresap ke dalam otak Anda dan Anda tidak dapat menghilangkannya.”
Hasil yang bias dan berbahaya
Meskipun ada pengakuan luas di kalangan para ahli bahwa AI memberikan hasil yang tidak dapat diandalkan, banyak orang didorong untuk memercayai hasil AI dalam hal akurasi dan keamanan.
Para peneliti telah menemukan bahwa model AI terbaru dengan percaya diri mengungkapkan penilaian yang jelas-jelas salah, membuat kesalahan mengenai gagasan dasar ekonomi seperti suku bunga, atau mengarang percakapan tentang data medis pasien.
Yang lebih memprihatinkan lagi adalah orang-orang memperlakukan model AI sebagai mitra percakapan yang dapat dipercaya. Hal ini dilakukan dengan dorongan penuh dari perusahaan AI, meskipun terdapat risiko nyata. Pada tahun 2023, pendiri Character AI, Noam Shazeer, berkata tentang AI, “Ini akan sangat membantu banyak orang yang kesepian atau depresi.” Faktanya, salah satu bot obrolan Karakter AI memainkan peran yang mengkhawatirkan dalam kasus bunuh diri seorang remaja. Orang tua dari remaja lainnya mengatakan bahwa hal tersebut secara eksplisit mendorong dia untuk melakukan bunuh diri sebelum dia melakukannya. Ada semakin banyak laporan tentang bot obrolan yang membimbing orang-orang ke dalam “spiral delusi” yang dapat menimbulkan konsekuensi kesehatan mental yang buruk.
Jelas dari semua contoh ini dan banyak lagi kasus pengadilan yang sedang berlangsung bahwa tidak mungkin mengendalikan kata-kata yang keluar dari model-model ini. Mengingat penghinaan rasial yang termasuk dalam kumpulan data pelatihan yang paling banyak digunakan, tidak mengherankan jika mereka terkadang kehilangan plot seperti yang pernah dilakukan Grok, menghasilkan kata-kata kasar rasis dan menamakan dirinya “MechaHitler”.
Meskipun model AI yang populer tidak dapat diandalkan, mereka sangat andal dalam memberikan keyakinan penuh terhadap jawaban terbaru yang mereka berikan, meskipun jawaban tersebut bertentangan dengan jawaban sebelumnya.
Adalah murni angan-angan untuk mengatakan bahwa model AI dapat menggantikan penilaian manusia di bidang apa pun. Jika orang-orang memperlakukan AI sebagai peramal yang dapat dipercaya atau teman yang dapat dipercaya, angan-angan ini tentu saja berbahaya.
Penggunaan karya kreatif secara tidak adil
Model-model terkemuka dilatih tentang semua data yang dapat diperoleh perusahaan AI, apa pun lisensinya. Hal ini mencakup informasi hak milik seperti situs berita dan informasi, galeri seni, dan situs web pribadi yang dilindungi oleh pengaturan hak cipta tradisional. Situs-situs ini (dan tentu saja buku cetak dan materi offline lainnya) diterbitkan berdasarkan kerangka hukum yang memungkinkan pencarian dan pengindeksan konten mereka tanpa mereproduksinya. Banyak situs web komersial bergantung pada pengunjung yang diarahkan ke situs web mereka sehingga mereka dapat menerima pendapatan iklan.
Sementara itu, sejumlah besar materi tersedia online dalam bentuk gratis dan sumber terbuka, terutama kumpulan kode sumber yang sangat besar yang digunakan untuk melatih model pengkodean AI. Tawaran untuk materi ini berbeda: penulis memerlukan atribusi untuk digunakan kembali, dan memberikan persyaratan tambahan seperti klausul “berbagi serupa” yang mewajibkan pelepasan karya turunan dengan persyaratan yang sama. Model AI melanggar kesepakatan yang ditegakkan secara hukum ini dengan mereproduksi karya turunan atau karya yang disalin secara langsung tanpa atribusi atau lisensi yang benar.
Mengarahkan pengunjung ke situs web bukanlah efek samping baik atau kebetulan dari mesin pencari: ini adalah tawar-menawar yang berkelanjutan: Anda mengizinkan saya mengindeks konten Anda dan sebagai imbalannya saya mengarahkan pengguna ke situs Anda. Jika tawar-menawar ini gagal, pembuat situs web akan kehilangan sumber pendapatannya dan banyak situs web akan hilang. Mematuhi persyaratan lisensi bukanlah suatu pilihan: penggunaan materi apa pun diwajibkan, termasuk konten sumber terbuka dan gratis.
Tawar-menawar ini ditegakkan oleh undang-undang hak cipta. Penemuan AI tidak mengubah apa pun dalam tawar-menawar ini, kecuali hal itu mengaburkan penyalinan materi berhak cipta [^8]dan meyakinkan pemerintah bahwa penegakan hukum akan menghalangi keajaiban ekonomi yang dijanjikan oleh AI[^29].
Alasan lain
Artikel ini terutama membahas alasan etis untuk menghindari penggunaan AI, tetapi ada banyak alasan lain juga:
-
Mereka tidak melakukan apa yang diklaim oleh para miliarder: para peneliti menemukan bahwa pengembang open source 19% kurang produktif ketika menggunakan alat AI, dan sebuah penelitian di Inggris tidak menunjukkan peningkatan produktivitas.
-
Hal ini memperburuk pekerjaan Anda: kemampuan dokter dalam mengenali kanker dengan cepat terkikis ketika mereka mulai menggunakan alat AI.
-
Hal ini akan digunakan sebagai alasan untuk melakukan PHK: Amazon baru-baru ini mengatakan kepada para pekerjanya untuk memperkirakan adanya PHK akibat AI meskipun perusahaan tersebut telah melakukan PHK secara rutin sejak tahun 2022.
Terlepas dari hype yang ada, jelas bahwa AI dapat melakukan beberapa tugas secara efektif, misalnya membuat video palsu yang sangat meyakinkan. Saya memilih untuk menghindarinya sebisa saya, karena alasan di atas.
Saya yakin AI adalah sebuah kekuatan yang benar-benar merugikan dunia, dan mengkonsentrasikan kekayaan dan kekuasaan di tangan orang-orang yang sudah cukup kaya dan berkuasa. Jika Anda setuju, mari bekerja sama sebagai profesional untuk membantu perusahaan, organisasi, dan teman-teman kita agar bersikap skeptis terhadap manfaatnya, dan memperhatikan permasalahannya ketika kita membuat keputusan tentang bagaimana dan di mana menggunakannya.
Jika Anda ingin mendengar lebih banyak sudut pandang skeptis terhadap AI, thecon.ai adalah tempat yang baik untuk memulai. Artikel “Saya Seorang Pembenci AI” oleh Anthony Moser adalah titik awal penelitian untuk artikel ini dan direkomendasikan jika Anda menginginkan pandangan yang tidak terlalu dibatasi secara emosional.
(Terima kasih kepada pengulas Overload karena telah menyarankan beberapa referensi tambahan.)
News
Berita Teknologi
Berita Olahraga
Sports news
sports
Motivation
football prediction
technology
Berita Technologi
Berita Terkini
Tempat Wisata
News Flash
Football
Gaming
Game News
Gamers
Jasa Artikel
Jasa Backlink
Agen234
Agen234
Agen234
Resep
Download Film
A gaming center is a dedicated space where people come together to play video games, whether on PCs, consoles, or arcade machines. These centers can offer a range of services, from casual gaming sessions to competitive tournaments.
