Download as pdf or txt
Download as pdf or txt
You are on page 1of 11

TUGAS

SISTEM MANAJEMEN INFORMASI


HOW RELIABLE IS BIG DATA ?

Nama : Salomo
NIM : 211073006
Kelas : Manajemen
Dosen Pengampu : Dedi Wibowo, SE, MM

UNIVERSITAS DIRGANTARA MARSEKAL SURYADARMA


FAKULTAS EKONOMI
JAKARTA
2023
HOW RELIABLE IS BIG DATA ?
CASE STUDY
Today’s companies are dealing with an avalanche of data from social media, search, and
sensors, as well as from traditional sources. According to one estimate, 2.5 quintillion bytes of data
per day are generated around the world. Making sense of “big data” to improve decision making
and business performance has become one of the primary opportunities for organizations of all
shapes and sizes, but it also represents big challenges. Businesses such as Amazon, YouTube, and
Spotify have flourished by analyzing the big data they collect about customer interests and
purchases to create millions of personalized recommendations. A number of online services
analyze big data to help consumers, including services for finding the lowest price on autos,
computers, mobile phone plans, clothing, airfare, hotel rooms, and many other types of goods and
services. Big data is also providing benefits in sports (see the chapter-opening case), education,
science, health care, and law enforcement. Analyzing billions of data points collected on patients,
healthcare providers, and the effectiveness of prescriptions and treatments has helped the UK
National Health Service (NHS) save about 581 million pounds (U.S. $784 million). The data are
housed in an Oracle Exadata Database Machine, which can quickly analyze very large volumes of
data (review this chapter’s discussion of analytic platforms). NHS has used its findings from big
data analysis to create dashboards identifying patients taking 10 or more medications at once, and
which patients are taking too many antibiotics. Compiling very large amounts of data about drugs
and treatments given to cancer patients and correlating that information with patient outcomes has
helped NHS identify more effective treatment protocols. New York City analyzes all the crime-
related data it collects to lower the crime rate. Its CompStat crime-mapping program uses a
comprehensive citywide database of all reported crimes or complaints, arrests, and summonses in
each of the city’s 76 precincts to report weekly on crime complaint and arrest activity at the
precinct, patrol borough, and citywide levels. CompStat data can be displayed on maps showing
crime and arrest locations, crime hot spots, and other relevant information to help precinct
commanders quickly identify patterns and trends and deploy police personnel where they are most
needed. Big data on criminal activity also powers New York City’s Crime Strategies Unit, which
targets the worst offenders for aggressive prosecution. Healthcare companies are currently
analyzing big data to determine the most effective and economical treatments for chronic illnesses
and common diseases and provide personalized care recommendations to patients. There are limits
to using big data. A number of companies have rushed to start big data projects without first
establishing a business goal for this new information or key performance metrics to measure
success. Swimming in numbers doesn’t necessarily mean that the right information is being
collected or that people will make smarter decisions. Experts in big data analysis believe too many
companies, seduced by the promise of big data, jump into big data projects with nothing to show
for their efforts. They start amassing mountains of data with no clear objective or understanding
of exactly how analyzing big data will achieve their goal or what questions they are trying to
answer. Organizations also won’t benefit from big data that has not been properly cleansed,
organized, and managed—think data quality. Just because something can be measured doesn’t
mean it should be measured. Suppose, for instance, that a large company wants to measure its
website traffic in relation to the number of mentions on Twitter. It builds a digital dashboard to
display the results continuously. In the past, the company had generated most of its sales leads and
eventual sales from trade shows and conferences. Switching to Twitter mentions as the key metric
to measure changes the sales department’s focus. The department pours its energy and resources
into monitoring website clicks and social media traffic, which produce many unqualified leads that
never lead to sales. Although big data is very good at detecting correlations, especially subtle
correlations that an analysis of smaller data sets might miss, big data analysis doesn’t necessarily
show causation or which correlations are meaningful. For example, examining big data might show
that from 2006 to 2011 the United States murder rate was highly correlated with the market share
of Internet Explorer, since both declined sharply. But that doesn’t necessarily mean there is any
meaningful connection between the two phenomena. Data analysts need some business knowledge
of the problem they are trying to solve with big data. Big data predictive models don’t necessarily
give you a better idea of what will happen in the future. Meridian Energy Ltd., an electricity
generator and distributor operating in New Zealand and Australia, moved away from using an
aging predictive equipment maintenance system. The software was supposed to predict the
maintenance needs of all the large equipment the company owns and operates, including
generators, wind turbines, transformers, circuit breakers, and industrial batteries. However, the
system used outdated modeling techniques and could not actually predict equipment failures. It
ran simulations of different scenarios and predicted when assets would fail the simulated tests. The
recommendations of the software were useless because they did not accurately predict which
pieces of equipment actually failed in the real world. Meridian eventually replaced the old system
with IBM’s Predictive Maintenance and Quality software, which bases predictions on more real-
time data from equipment. All data sets and data-driven forecasting models reflect the biases of
the people selecting the data and performing the analysis. Several years ago, Google developed
what it thought was a leading-edge algorithm using data it collected from web searches to
determine exactly how many people had influenza and how the disease was spreading. It tried to
calculate the number of people with flu in the United States by relating people’s location to flu-
related search queries on Google. Google consistently overestimated flu rates, when compared to
conventional data collected afterward by the U.S. Centers for Disease Control (CDC). Several
scientists suggested that Google was “tricked” by widespread media coverage of that year’s severe
flu season in the United States, which was further amplified by social media coverage. The model
developed for forecasting flu trends was based on a flawed assumption—that the incidence of flu-
related searches on Googles was a precise indicator of the number of people who actually came
down with the flu. Google’s algorithm only looked at numbers, not the context of the search results.
In addition to election tampering by hostile nations, insufficient attention to context and flawed
assumptions may have played a role in the failure of most political experts to predict Donald
Trump’s victory over Hillary Clinton in the 2016 presidential election. Trump’s victory ran counter
to almost every major forecast, which had predicted Clinton’s chances of winning to be between
70 to 99 percent. Tons of data had been analyzed by political experts and the candidates’ campaign
teams. Clinton ran an overwhelmingly data-driven campaign, and big data had played a large role
in Obama’s victories in 2008 and 2012. Clinton’s team added to the database the Obama campaigns
had built, which connected personal data from traditional sources, such as reports from pollsters
and field workers, with other data from social media posts and other online behavior as well as
data used to predict consumer behavior. The Clinton team assumed that the same voters who
supported Obama would turn out for their candidate, and focused on identifying voters in areas
with a likelihood of high voter turnout. However, turnout for Clinton among the key groups who
had supported Obama—women, minorities, college graduates, and blue-collar workers—fell short
of expectations. (Trump had turned to big data as well, but put more emphasis on tailoring
campaign messages to targeted voter groups.) Political experts were misled into thinking Clinton’s
victory was assured because some predictive models lacked context in explaining potentially wide
margins of error. There were shortcomings in polling, analysis, and interpretation, and analysts did
not spend enough time examining how the data used in the predictive models were created. Many
polls used in election forecasts underestimated the strength of Trump’s support. State polls were
inaccurate, perhaps failing to capture Republicans who initially refused to vote for Trump and then
changed their minds at the last moment. Polls from Wisconsin shortly before the election had put
Clinton well ahead of Trump. Polls are important for election predictions, but they are only one of
many sources of data that should be consulted. Predictive models were unable to fully determine
who would actually turn out to vote as opposed to how people thought they would vote. Analysts
overlooked signs that Trump was forging ahead in the battleground states. Britain had a similar
surprise when polls mistakenly predicted the nation would vote in June 2016 to stay in the
European Union. And let’s not forget that big data poses some challenges to information security
and privacy. As Chapter 4 pointed out, companies are now aggressively collecting and mining
massive data sets on people’s shopping habits, incomes, hobbies, residences, and (via mobile
devices) movements from place to place. They are using such big data to discover new facts about
people, to classify them based on subtle patterns, to flag them as “risks” (for example, loan default
risks or health risks), to predict their behavior, and to manipulate them for maximum profit. When
you combine someone’s personal information with pieces of data from many different sources,
you can infer new facts about that person (such as the fact that they are showing early signs of
Parkinson’s disease, or are unconsciously drawn toward products that are colored blue or green).
If asked, most people might not want to disclose such information, but they might not even know
such information about them exists. Privacy experts worry that people will be tagged and suffer
adverse consequences without due process, the ability to fight back, or even knowledge that they
have been discriminated against
CASE STUDY QUESTIONS
6-13. What business benefits did the organizations described in this case achieve by
analyzing and using big data?
6-14. Identify two decisions at the organizations described in this case that were improved
by using big data and two decisions that big data did not improve.
6-15. List and describe the limitations to using big data.
6-16. Should all organizations try to collect and analyze big data? Why or why not? What
management, organization, and technology issues should be addressed before a
company decides to work with big data
Translation

SEBERAPA DAPAT DIANDALKAN DATA BESAR?

STUDI KASUS

Perusahaan-perusahaan saat ini menghadapi banyaknya data dari media sosial, pencarian,
dan sensor, serta dari sumber-sumber tradisional. Menurut sebuah perkiraan, 2,5 triliun byte data
per hari dihasilkan di seluruh dunia. Memahami “big data” (data besar) untuk meningkatkan
pengambilan keputusan dan kinerja bisnis telah menjadi salah satu peluang utama bagi organisasi
dalam segala bentuk dan ukuran, namun hal ini juga merupakan tantangan besar. Bisnis seperti
Amazon, YouTube, dan Spotify berkembang dengan menganalisis data besar yang mereka
kumpulkan tentang minat dan pembelian pelanggan untuk menghasilkan jutaan rekomendasi yang
dipersonalisasi. Sejumlah layanan online menganalisis data besar untuk membantu konsumen,
termasuk layanan untuk menemukan harga terendah untuk mobil, komputer, paket telepon seluler,
pakaian, tiket pesawat, kamar hotel, dan banyak jenis barang dan jasa lainnya. Big data (data
Besar) juga memberikan manfaat di bidang olahraga (lihat kasus pembuka bab), pendidikan, ilmu
pengetahuan, layanan kesehatan, dan penegakan hukum. Menganalisis miliaran titik data yang
dikumpulkan mengenai pasien, penyedia layanan kesehatan, dan efektivitas resep serta perawatan
telah membantu Layanan Kesehatan Nasional Inggris (NHS) menghemat sekitar 581 juta pound
(784 juta dolar A.S.). Data disimpan dalam Mesin Database Oracle Exadata, yang dapat dengan
cepat menganalisis data dalam volume yang sangat besar (tinjau pembahasan bab ini tentang
platform analitik). NHS telah menggunakan temuannya dari analisis data besar untuk membuat
dasbor yang mengidentifikasi pasien yang memakai 10 obat atau lebih sekaligus, dan pasien mana
yang mengonsumsi terlalu banyak antibiotik. Mengumpulkan data dalam jumlah besar tentang
obat-obatan dan pengobatan yang diberikan kepada pasien kanker dan menghubungkan informasi
tersebut dengan hasil akhir pasien telah membantu NHS mengidentifikasi protokol pengobatan
yang lebih efektif. Kota New York menganalisis semua data terkait kejahatan yang
dikumpulkannya untuk menurunkan tingkat kejahatan. Program pemetaan kejahatan CompStat
menggunakan basis data komprehensif seluruh kota yang berisi semua kejahatan atau pengaduan,
penangkapan, dan pemanggilan yang dilaporkan di masing-masing 76 wilayah kota untuk
melaporkan setiap minggu mengenai pengaduan kejahatan dan aktivitas penangkapan di tingkat
wilayah, wilayah patroli, dan seluruh kota. Data CompStat dapat ditampilkan pada peta yang
menunjukkan lokasi kejahatan dan penangkapan, titik rawan kejahatan, dan informasi relevan
lainnya untuk membantu komandan polsek dengan cepat mengidentifikasi pola dan tren serta
mengerahkan personel polisi di tempat yang paling membutuhkan. Data besar mengenai aktivitas
kriminal juga mendukung Unit Strategi Kejahatan Kota New York, yang menargetkan pelaku
kejahatan terburuk untuk melakukan penuntutan yang agresif. Perusahaan layanan kesehatan saat
ini menganalisis data besar untuk menentukan pengobatan yang paling efektif dan ekonomis untuk
penyakit kronis dan penyakit umum serta memberikan rekomendasi perawatan yang
dipersonalisasi kepada pasien. Ada batasan dalam menggunakan data besar. Sejumlah perusahaan
terburu-buru memulai proyek big data tanpa terlebih dahulu menetapkan tujuan bisnis atas
informasi baru atau metrik kinerja utama ini untuk mengukur keberhasilan. Berenang dalam
jumlah besar tidak selalu berarti bahwa informasi yang tepat telah dikumpulkan atau bahwa orang
akan membuat keputusan yang lebih cerdas. Para ahli dalam analisis big data (data besar) yakin
bahwa terlalu banyak perusahaan, yang tergoda oleh janji big data (data besar), terjun ke proyek
big data (data besar) tanpa menunjukkan hasil apa pun. Mereka mulai mengumpulkan segunung
data tanpa tujuan atau pemahaman yang jelas tentang bagaimana analisis big data (data besar) akan
mencapai tujuan mereka atau pertanyaan apa yang ingin mereka jawab. Organisasi juga tidak akan
mendapat manfaat dari data besar yang tidak dibersihkan, diorganisasikan, dan dikelola dengan
baik-pikirkan kualitas data. Hanya karena sesuatu bisa diukur bukan berarti sesuatu itu harus
diukur. Misalkan, misalnya, sebuah perusahaan besar ingin mengukur lalu lintas situs webnya
sehubungan dengan jumlah sebutan di Twitter. Itu membangun dasbor digital untuk menampilkan
hasilnya terus menerus. Di masa lalu, perusahaan menghasilkan sebagian besar prospek penjualan
dan penjualan akhir dari pameran dagang dan konferensi. Beralih ke penyebutan Twitter sebagai
metrik utama untuk mengukur perubahan fokus departemen penjualan. Departemen ini
mencurahkan energi dan sumber dayanya untuk memantau klik situs web dan lalu lintas media
sosial, yang menghasilkan banyak prospek yang tidak memenuhi syarat yang tidak pernah
menghasilkan penjualan. Meskipun big data sangat baik dalam mendeteksi korelasi, terutama
korelasi halus yang mungkin terlewatkan oleh analisis kumpulan data yang lebih kecil, analisis big
data tidak serta merta menunjukkan hubungan sebab akibat atau korelasi mana yang bermakna.
Misalnya, pemeriksaan data besar mungkin menunjukkan bahwa dari tahun 2006 hingga 2011
tingkat pembunuhan di Amerika Serikat sangat berkorelasi dengan pangsa pasar Internet Explorer,
karena keduanya menurun tajam. Namun hal itu tidak berarti ada hubungan yang berarti antara
kedua fenomena tersebut. Analis data memerlukan pengetahuan bisnis tentang masalah yang
mereka coba selesaikan dengan data besar. Model prediktif big data (data besar) tidak selalu
memberi Anda gambaran yang lebih baik tentang apa yang akan terjadi di masa depan. Meridian
Energy Ltd., generator dan distributor listrik yang beroperasi di Selandia Baru dan Australia, tidak
lagi menggunakan sistem pemeliharaan peralatan prediktif penuaan. Perangkat lunak ini
diharapkan dapat memprediksi kebutuhan pemeliharaan semua peralatan besar yang dimiliki dan
dioperasikan perusahaan, termasuk generator, turbin angin, trafo, pemutus arus, dan baterai
industri. Namun, sistem tersebut menggunakan teknik pemodelan yang sudah ketinggalan zaman
dan tidak dapat memprediksi kegagalan peralatan. Ini menjalankan simulasi berbagai skenario dan
memperkirakan kapan aset akan gagal dalam pengujian simulasi. Rekomendasi perangkat lunak
tidak ada gunanya karena tidak memprediksi secara akurat peralatan mana yang benar-benar gagal
di dunia nyata. Meridian akhirnya mengganti sistem lama dengan perangkat lunak Pemeliharaan
Prediktif dan Kualitas IBM, yang mendasarkan prediksi pada data peralatan yang lebih real-time.
Semua kumpulan data dan model perkiraan berdasarkan data mencerminkan bias orang yang
memilih data dan melakukan analisis. Beberapa tahun yang lalu, Google mengembangkan
algoritma terdepan yang menggunakan data yang dikumpulkan dari pencarian web untuk
menentukan dengan tepat berapa banyak orang yang menderita influenza dan bagaimana penyakit
ini menyebar. Mereka mencoba menghitung jumlah penderita flu di Amerika Serikat dengan
menghubungkan lokasi orang tersebut dengan permintaan pencarian terkait flu di Google. Google
secara konsisten melebih-lebihkan tingkat flu, jika dibandingkan dengan data konvensional yang
dikumpulkan setelahnya oleh Pusat Pengendalian Penyakit (CDC) AS. Beberapa ilmuwan
berpendapat bahwa Google “ditipu” oleh liputan media yang luas tentang musim flu parah di
Amerika Serikat pada tahun itu, yang semakin diperkuat oleh liputan media sosial. Model yang
dikembangkan untuk memperkirakan tren flu didasarkan pada asumsi yang salah—bahwa
frekuensi penelusuran terkait flu di Google merupakan indikator tepat mengenai jumlah orang
yang benar-benar terjangkit flu. Algoritme Google hanya melihat angka, bukan konteks hasil
pencarian. Selain gangguan pemilu yang dilakukan oleh negara-negara yang bermusuhan,
kurangnya perhatian terhadap konteks dan asumsi yang salah mungkin berperan dalam kegagalan
sebagian besar pakar politik dalam memprediksi kemenangan Donald Trump atas Hillary Clinton
pada pemilu presiden tahun 2016. Kemenangan Trump bertentangan dengan hampir semua
perkiraan besar, yang memperkirakan peluang Clinton untuk menang adalah antara 70 hingga 99
persen. Banyak sekali data yang telah dianalisis oleh para pakar politik dan tim kampanye para
kandidat. Clinton menjalankan kampanye yang sangat berbasis data, dan data besar (big data) telah
memainkan peran besar dalam kemenangan Obama pada tahun 2008 dan 2012. Tim Clinton
menambahkan database yang telah dibangun oleh kampanye Obama, yang menghubungkan data
pribadi dari sumber-sumber tradisional, seperti laporan dari lembaga survei. dan pekerja lapangan,
dengan data lain dari postingan media sosial dan perilaku online lainnya serta data yang digunakan
untuk memprediksi perilaku konsumen. Tim Clinton berasumsi bahwa pemilih yang sama yang
mendukung Obama akan memilih kandidat mereka, dan fokus pada mengidentifikasi pemilih di
daerah dengan kemungkinan jumlah pemilih yang tinggi. Namun, jumlah pemilih Clinton di antara
kelompok-kelompok utama yang mendukung Obama—perempuan, kelompok minoritas, lulusan
perguruan tinggi, dan pekerja kerah biru—tidak memenuhi harapan. (Trump juga telah beralih ke
data besar, namun lebih menekankan pada penyesuaian pesan kampanye kepada kelompok pemilih
yang ditargetkan.) Pakar politik disesatkan dengan berpikir bahwa kemenangan Clinton sudah
pasti karena beberapa model prediksi tidak memiliki konteks dalam menjelaskan potensi margin
kesalahan yang besar. Terdapat kekurangan dalam jajak pendapat, analisis, dan interpretasi, dan
analis tidak menghabiskan cukup waktu untuk memeriksa bagaimana data yang digunakan dalam
model prediktif dibuat. Banyak jajak pendapat yang digunakan dalam perkiraan pemilu
meremehkan kekuatan dukungan Trump. Jajak pendapat di negara bagian tidak akurat, dan
mungkin gagal menangkap tokoh Partai Republik yang awalnya menolak memilih Trump dan
kemudian berubah pikiran pada saat-saat terakhir. Jajak pendapat di Wisconsin sesaat sebelum
pemilu menempatkan Clinton jauh di atas Trump. Jajak pendapat memang penting untuk
memprediksi pemilu, namun jajak pendapat hanyalah salah satu dari banyak sumber data yang
harus dikonsultasikan. Model prediktif tidak dapat sepenuhnya menentukan siapa yang benar-
benar akan memilih dan bukan bagaimana masyarakat berpikir mereka akan memilih. Para analis
mengabaikan tanda-tanda bahwa Trump terus maju di negara-negara bagian yang menjadi medan
pertempuran. Inggris juga mengalami kejutan serupa ketika jajak pendapat secara keliru
memperkirakan negara tersebut akan memilih untuk tetap menjadi anggota Uni Eropa pada bulan
Juni 2016. Dan jangan lupa bahwa big data menimbulkan beberapa tantangan terhadap keamanan
informasi dan privasi. Seperti yang ditunjukkan pada Bab 4, perusahaan kini secara agresif
mengumpulkan dan menggali data dalam jumlah besar mengenai kebiasaan berbelanja,
pendapatan, hobi, tempat tinggal, dan (melalui perangkat seluler) pergerakan masyarakat dari satu
tempat ke tempat lain. Mereka menggunakan data besar tersebut untuk menemukan fakta-fakta
baru tentang seseorang, untuk mengklasifikasikannya berdasarkan pola yang tidak kentara, untuk
menandainya sebagai “risiko” (misalnya, risiko gagal bayar pinjaman atau risiko kesehatan), untuk
memprediksi perilaku mereka, dan untuk memanipulasinya untuk tujuan tertentu. keuntungan
maksimal. Saat Anda menggabungkan informasi pribadi seseorang dengan potongan data dari
berbagai sumber, Anda dapat menyimpulkan fakta baru tentang orang tersebut (seperti fakta bahwa
mereka menunjukkan tanda-tanda awal penyakit Parkinson, atau secara tidak sadar tertarik pada
produk berwarna biru atau hijau. ). Jika ditanya, kebanyakan orang mungkin tidak ingin
mengungkapkan informasi tersebut, namun mereka mungkin bahkan tidak mengetahui adanya
informasi tersebut. Pakar privasi khawatir bahwa orang-orang akan ditandai dan menderita akibat
buruk tanpa proses hukum, kemampuan untuk melawan, atau bahkan mengetahui bahwa mereka
telah didiskriminasi.

PERTANYAAN STUDI KASUS


6-13. Manfaat bisnis apa yang dicapai oleh organisasi-organisasi yang dijelaskan dalam
kasus ini dengan menganalisis dan menggunakan data besar?
6-14. Identifikasi dua keputusan di organisasi yang dijelaskan dalam kasus ini yang
ditingkatkan dengan menggunakan data besar dan dua keputusan yang tidak
diperbaiki oleh data besar.
6-15. Buat daftar dan jelaskan batasan penggunaan data besar.
6-16. Haruskah semua organisasi mencoba mengumpulkan dan menganalisis data besar?
Mengapa atau mengapa tidak? Masalah manajemen, organisasi, dan teknologi apa
yang harus diatasi sebelum perusahaan memutuskan untuk bekerja dengan data
besar

Jawaban :
6-13. Manfaat bisnis yang dapat dicapai oleh organisasi dengan menganalisis dan
menggunakan data besar dapat sangat bervariasi, tergantung pada sektor industri,
tujuan organisasi, dan bagaimana data besar digunakan. Di bawah ini adalah
beberapa manfaat utama yang dapat diperoleh organisasi melalui analisis data
besar:
1. Pemahaman Pelanggan : Organisasi dapat menggunakan analisis data besar
untuk memahami preferensi dan perilaku pelanggan dengan lebih baik. Hal
ini memungkinkan mereka untuk menciptakan produk dan layanan yang
lebih sesuai dengan kebutuhan pelanggan, serta mengoptimalkan strategi
pemasaran dan harga.
2. Inovasi Produk dan Layanan : Analisis data besar dapat membantu
organisasi mengidentifikasi peluang inovasi baru. Dengan memahami tren
dan pola dalam data, mereka dapat mengembangkan produk dan layanan
baru yang lebih sesuai dengan pasar dan tren terkini.
3. Optimalisasi Harga dan Penetapan Harga Dinamis: Dengan analisis data
besar, organisasi dapat mengoptimalkan strategi penetapan harga mereka.
Mereka dapat menyesuaikan harga berdasarkan permintaan, persediaan,
atau kondisi pasar saat ini.
4. Deteksi dan Pencegahan Penipuan: Data besar dapat digunakan untuk
mendeteksi pola penipuan atau perilaku mencurigakan. Hal ini berlaku pada
industri keuangan, e-commerce, dan sektor lainnya di mana penipuan
adalah masalah serius.
5. Deteksi dan Pencegahan Kejahatan: Data besar dapat digunakan untuk
medeksi pola kejahatan dan tempat-tempat yang rawan terjadinya
kejahatan, sehingga pemerintah dapat menempatkan polisi didaerah-daerah
rawan tersebut, dan dengan cepat mendeteksi para penjahat.
6. Peramalan dan Perencanaan: Data besar dapat digunakan untuk membuat
peramalan yang lebih akurat tentang permintaan pasar, persediaan, dan tren
bisnis. Ini membantu organisasi dalam perencanaan strategi dan
pengelolaan risiko.
6-14. Keputusan yang Ditingkatkan oleh Data Besar:
1. Penyesuaian Stok Produk : Sebuah perusahaan ritel dapat menggunakan
data besar untuk menganalisis tren pembelian pelanggan, musim
penjualan, dan data historis lainnya. Dengan data yang besar, mereka dapat
membuat keputusan yang lebih tepat tentang berapa banyak stok yang
harus dipesan untuk setiap produk dan kapan harus mengatur promosi
produk tertentu.
2. Segmentasi Pelanggan : Perusahaan dapat menggunakan data besar untuk
mengidentifikasi segmen pelanggan yang berbeda berdasarkan perilaku
pembelian, preferensi, dan demografi. Hal ini memungkinkan mereka
untuk menyesuaikan strategi pemasaran dan layanan pelanggan untuk
setiap segmen dengan lebih baik.
Keputusan yang Tidak Diperbaiki oleh Data Besar:
1. Etika Bisnis dan Nilai Perusahaan : Keputusan yang berkaitan dengan etika
bisnis, nilai perusahaan, dan tanggung jawab sosial tidak sepenuhnya dapat
dibantu oleh data besar. Nilai-nilai dan etika perusahaan harus ditetapkan
berdasarkan prinsip-prinsip yang mendasarinya, dan data besar mungkin
tidak memiliki dampak besar pada aspek ini. Keputusan Strategi Jangka
Panjang.
2. Keputusan strategi jangka panjang yang melibatkan arah bisnis dan
pengembangan jangka panjang seringkali didasarkan pada pemahaman
yang lebih mendalam tentang visi dan misi perusahaan, daripada hanya
mengandalkan data besar. Data besar dapat memberikan wawasan, tetapi
keputusan strategi seringkali melibatkan unsur-unsur yang lebih luas dan
kompleks.

6-15. Penggunaan data besar (big data) memiliki beberapa batasan yang perlu
dipertimbangkan oleh organisasi. Berikut adalah daftar beberapa batasan utama
penggunaan data besar:
1. Biaya: Mengumpulkan, menyimpan, mengelola, dan menganalisis data
besar dapat menjadi sangat mahal. Ini termasuk investasi dalam
infrastruktur teknologi, perangkat lunak, pelatihan, dan tenaga kerja yang
berkualitas.
2. Kualitas Data: Data besar dapat mengandung kesalahan, ketidakakuratan,
atau duplikasi yang signifikan. Kualitas data yang rendah dapat mengarah
pada kesalahan analisis dan pengambilan keputusan yang tidak akurat.
3. Kerahasiaan dan Privasi: Semakin besar data yang dikumpulkan, semakin
besar pula potensi risiko kebocoran data dan pelanggaran privasi.
Organisasi harus memastikan bahwa data pelanggan dan karyawan mereka
dilindungi secara memadai.
4. Keterbatasan Teknologi: Tidak semua organisasi memiliki teknologi atau
sumber daya yang cukup untuk mengelola dan menganalisis data besar
dengan efektif. Hal ini dapat menjadi kendala untuk organisasi kecil atau
menengah.
5. Kompleksitas Analisis: Menganalisis data besar seringkali memerlukan
keterampilan analisis data yang tinggi dan pemahaman statistik yang
mendalam. Organisasi mungkin kesulitan dalam menemukan personel
yang memiliki keterampilan ini.
6. Skala Waktu: Pengumpulan dan analisis data besar sering memerlukan
waktu yang signifikan. Keputusan yang memerlukan respons cepat
mungkin sulit dilakukan dengan data besar.
7. Tingkat Integritas Data: Data besar sering kali bersifat terdistribusi dan
berasal dari berbagai sumber. Memastikan integritas data, konsistensi, dan
keseragaman dapat menjadi tantangan.
8. Tidak Semua Data Penting: Tidak semua data besar memiliki nilai yang
sama. Organisasi perlu mengidentifikasi data yang benar-benar relevan dan
bermanfaat bagi tujuan mereka. Mengumpulkan terlalu banyak data yang
tidak relevan dapat mengaburkan informasi yang lebih penting.
9. Hukum dan Regulasi: Data besar dapat terpengaruh oleh peraturan dan
regulasi yang ketat terkait dengan privasi dan keamanan data. Organisasi
harus mematuhi hukum yang berlaku dan menghadapi risiko hukum jika
melanggar regulasi tersebut.
10. Kecenderungan Analisis Pasif: Terlalu banyak data dapat mengarah pada
kecenderungan untuk menganalisis data secara pasif tanpa memiliki tujuan
yang jelas atau pertanyaan yang spesifik. Ini bisa menjadi pemborosan
sumber daya.
11. Potensi Kesalahan Akibat Overfitting: Ketika bekerja dengan data besar,
ada risiko overfitting, yaitu membuat model statistik yang terlalu kompleks
dan terlalu cocok dengan data pelatihan, yang mungkin tidak dapat
memprediksi data baru dengan baik.
12. Keamanan Cyber: Data besar yang disimpan dan diakses melalui jaringan
dapat rentan terhadap serangan siber dan upaya peretasan. Perlindungan
keamanan data sangat penting.
13. Tantangan dalam Interoperabilitas: Data besar seringkali berasal dari
berbagai sumber dan format. Menyatukan dan mengintegrasikan data ini
menjadi satu set data yang kohesif bisa menjadi tantangan.

6-16. Tidak, tidak semua organisasi harus mencoba mengumpulkan dan menganalisis
data besar. Keputusan untuk menggunakan data besar harus dipertimbangkan
dengan hati-hati dan harus didasarkan pada kebutuhan, tujuan, dan kemampuan
organisasi. Berikut adalah beberapa pertimbangan mengapa tidak semua organisasi
perlu terlibat dalam data besar:
1. Relevansi Bisnis: Penggunaan data besar harus relevan dengan tujuan
bisnis dan masalah yang ingin diselesaikan. Jika organisasi tidak memiliki
masalah atau tujuan yang dapat dipecahkan atau ditingkatkan melalui data
besar, maka investasi dalam teknologi dan sumber daya data besar
mungkin tidak sepadan.
2. Sumber Daya Terbatas: Mengumpulkan, menyimpan, dan menganalisis
data besar memerlukan investasi yang signifikan dalam infrastruktur,
perangkat lunak, dan personel dengan keterampilan analisis data.
Organisasi kecil atau dengan sumber daya terbatas mungkin tidak
memiliki kemampuan untuk melaksanakan proyek data besar.
3. Kepatuhan Hukum dan Privasi: Data besar seringkali melibatkan data
pelanggan dan karyawan yang sensitif. Organisasi harus mematuhi
regulasi privasi data yang ketat dan memahami risiko hukum yang terkait
dengan pengumpulan dan penggunaan data.
4. Keterampilan dan Pelatihan: Penggunaan data besar memerlukan
keterampilan analisis data yang tinggi. Organisasi harus
mempertimbangkan apakah tim mereka memiliki keterampilan ini atau
apakah pelatihan tambahan diperlukan.
5. Manajemen Data yang Efektif: Organisasi harus memiliki strategi dan
proses manajemen data yang efektif untuk mengelola data besar dengan
baik. Ini termasuk pemilihan dan penggunaan perangkat lunak
manajemen data yang sesuai.
6. Keamanan Data: Perlindungan data adalah prioritas utama. Organisasi
harus memiliki kebijakan dan tindakan keamanan yang kuat untuk
melindungi data besar dari potensi serangan siber dan pelanggaran
privasi.
Dengan demikian, keputusan untuk menggunakan data besar harus selalu didasarkan pada
analisis kebutuhan bisnis, kemampuan, dan sumber daya yang tersedia. Data besar bisa
menjadi alat yang sangat kuat untuk meningkatkan efisiensi, mengidentifikasi peluang, dan
mendukung pengambilan keputusan yang lebih baik, tetapi harus diimplementasikan
dengan bijak untuk menghindari pemborosan sumber daya dan risiko yang tidak perlu.

You might also like