Infrastruktur Big Data

You might also like

Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 4

https://fedtechmagazine.

com/article/2016/12/4-infrastructure-requirements-any-big-data-
initiative

4 Infrastructure Requirements
for Any Big Data Initiative
To take advantage of Big Data, agencies must ensure their
technology stacks — including storage, servers, networking
capacity and analysis software — are up to the task.
byFedTech Staff

Federal agencies, like organizations in virtually every sector, are handling more data
than ever before.

According to Cisco Systems , global IP traffic is expected to more than double in the
span of only a few years — growing to a monthly per-capita total of 25 gigabytes by
2020 (up from 10GB per capita in 2015).
This data boom presents a massive opportunity to find new efficiencies , detect
previously unseen patterns and increase levels of service to citizens, but Big Data
analytics can’t exist in a vacuum. Because of the enormous quantities of data involved
in these solutions, they must incorporate a robust infrastructure for storage, processing
and networking, in addition to analytics software.
While some organizations already have the capacity in place to absorb Big Data
solutions, others will need to expand resources to accommodate these new tools, or
else add new capacity to allow for a continued surplus of resources. This truly is a
situation in which the chain is only as strong as its weakest link; if storage and
networking are in place, but the processing power isn’t there — or vice versa — a Big
Data solution simply won’t be able to function properly.
SIGN UP: Get more news from the  FedTech newsletter in your inbox every two
weeks!
1. STORAGE
Often, organizations already possess enough storage in-house to support a Big Data
initiative. (After all, the data that will be processed and analyzed via a Big Data
solution is already living somewhere.) However, agencies may decide to invest in
storage solutions that are optimized for Big Data. While not necessary for all Big Data
deployments, flash storage is especially attractive due to its performance
advantages and high availability.
Large users of Big Data — companies such as Google and Facebook — utilize
hyperscale computing environments, which are made up of commodity servers with
direct-attached storage, run frameworks like Hadoop or Cassandra and often use PCIe-
based flash storage to reduce latency. Smaller organizations, meanwhile, often utilize
object storage or clustered network-attached storage (NAS).

Cloud storage  is an option for disaster recovery and backups of on-premises Big Data
solutions. While the cloud is also available as a primary source of storage, many
organizations — especially large ones — find that the expense of constantly
transporting data to the cloud makes this option less cost-effective than on-premises
storage.
2. PROCESSING
Servers intended for Big Data analytics must have enough processing power to support
this application. Some analytics vendors, such as Splunk, offer cloud processing
options, which can be especially attractive to agencies that experience seasonal peaks.
If an agency has quarterly filing deadlines, for example, that organization might
securely spin up on-demand processing power in the cloud to process the wave of data
that comes in around those dates, while relying on on-premises processing resources to
handle the steadier, day-to-day demands.

3. ANALYTICS SOFTWARE
Agencies must select Big Data analytics products based not only on what functions the
software can complete, but also on factors such as data security and ease of use.  One
popular function of Big Data analytics software is predictive analytics  — the
analysis of current data to make predictions about the future. Predictive analytics are
already used across a number of fields, including actuarial science, marketing and
financial services. Government applications include fraud detection, capacity planning
and child protection, with some child welfare agencies using the technology to flag
high-risk cases.
Many agencies have already begun to test Big Data applications or put them into
production. In 2012, the Obama administration announced the Big Data Research and
Development Initiative, which aims to advance state-of-the-art core Big Data projects,
accelerate discovery in science and engineering, strengthen national security, transform
teaching and learning, and expand the workforce needed to develop and utilize Big
Data technologies. The initiative involved a number of agencies, including the White
House Office of Science and Technology Policy, the National Science Foundation, the
National Institutes of Health, the Defense Department, the Defense Advanced Research
Projects Agency, the Energy Department, the Health and Human Services Department
and the U.S. Geological Survey.

4. NETWORKING
The massive quantities of information that must be shuttled back and forth in a Big
Data initiative require robust networking hardware. Many organizations are already
operating with networking hardware that facilitates 10-gigabit connections, and may
have to make only minor modifications — such as the installation of new ports — to
accommodate a Big Data initiative. Securing network transports is an essential step
in any upgrade, especially for traffic that crosses network boundaries.
Download the white paper, "Making Sense of Big Data ," to learn more about data
analytics and read about real-world applications.
PASHAIGNATOV/THINKSTOCK
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
TERJEMAHAN :

3043/5000

Instansi federal, seperti organisasi di hampir setiap sektor, menangani lebih banyak
data daripada sebelumnya.

Menurut Cisco Systems, lalu lintas IP global diperkirakan lebih dari dua kali lipat
dalam rentang hanya beberapa tahun - berkembang menjadi total per kapita per
bulan sebesar 25 gigabyte pada tahun 2020 (naik dari 10GB per kapita pada tahun
2015).

Boom data ini menghadirkan peluang besar untuk menemukan efisiensi baru,
mendeteksi pola yang sebelumnya tak terlihat dan meningkatkan tingkat layanan
kepada warga negara, namun analisis Big Data tidak dapat ada dalam ruang
hampa.Karena banyaknya data yang terlibat dalam solusi ini, mereka harus
memasukkan infrastruktur yang kuat untuk penyimpanan, pemrosesan dan jaringan,
selain perangkat lunak analisis.

Sementara beberapa organisasi sudah memiliki kapasitas untuk menyerap solusi


Big Data, yang lain perlu memperluas sumber daya untuk mengakomodasi alat baru
ini, atau menambahkan kapasitas baru untuk memungkinkan berlanjutnya surplus
sumber daya. Ini benar-benar adalah situasi di mana rantai hanya sekuat link
terlemahnya;Jika penyimpanan dan jaringan terpasang, namun kekuatan
pemrosesannya tidak ada - atau sebaliknya - solusi Data Besar tidak akan dapat
berfungsi dengan baik.

MASUKKAN: Dapatkan lebih banyak berita dari buletin FedTech di kotak masuk
Anda setiap dua minggu!

1. PENYIMPANAN
Seringkali, organisasi sudah memiliki cukup penyimpanan di dalam rumah untuk
mendukung inisiatif Data Besar. (Bagaimanapun, data yang akan diproses dan
dianalisis melalui solusi Big Data sudah tinggal di suatu tempat.) Namun, agensi
dapat memutuskan untuk berinvestasi dalam solusi penyimpanan yang dioptimalkan
untuk Big Data. Meskipun tidak diperlukan untuk semua penyebaran Big Data,
penyimpanan flash sangat menarik karena keunggulan kinerjanya dan
ketersediaannya yang tinggi.

Pengguna besar Big Data - perusahaan seperti Google dan Facebook -


memanfaatkan lingkungan komputasi hyperscale, yang terdiri dari server komoditas
dengan penyimpanan langsung, menjalankan kerangka kerja seperti Hadoop atau
Cassandra dan sering menggunakan penyimpanan flash berbasis PCIe untuk
mengurangi latensi.Organisasi yang lebih kecil, sementara itu, sering memanfaatkan
penyimpanan objek atau penyimpanan terlampir jaringan (NAS).

Penyimpanan awan adalah pilihan untuk pemulihan bencana dan backup solusi Big
Data lokal. Meskipun awan juga tersedia sebagai sumber penyimpanan utama,
banyak organisasi - terutama yang besar - menemukan bahwa biaya untuk terus
mengirimkan data ke awan membuat opsi ini kurang hemat biaya daripada
penyimpanan lokal.

2. PENGOLAHAN
Server yang ditujukan untuk analisis Big Data harus memiliki kekuatan pemrosesan
yang cukup untuk mendukung aplikasi ini. Beberapa vendor analisis, seperti Splunk,
menawarkan opsi pemrosesan awan, yang bisa sangat menarik bagi agensi yang
mengalami puncak musiman. Jika sebuah agen memiliki tenggat waktu pengarsipan
triwulanan, misalnya, organisasi tersebut dapat dengan aman memutar kekuatan
pemrosesan on-demand di awan untuk memproses gelombang data yang datang
seputar tanggal tersebut, sambil mengandalkan sumber pemrosesan lokal untuk
menangani kemudi , tuntutan sehari-hari.
3. PERANGKAT LUNAK ANALYTICS

Agensi harus memilih produk analisis Big Data yang berbasis tidak hanya pada fungsi apa perangkat
lunak bisa selesai, tapi juga pada faktor keamanan data dan kemudahan penggunaan. Salah satu
fungsi perangkat lunak analisis Big Data yang populer adalah analisis prediktif - analisis data saat ini
untuk membuat prediksi tentang masa depan. Analisis prediktif sudah digunakan di sejumlah bidang,
termasuk ilmu aktuaria, pemasaran dan jasa keuangan. Aplikasi pemerintah meliputi deteksi
kecurangan, perencanaan kapasitas dan perlindungan anak, dengan beberapa badan kesejahteraan
anak menggunakan teknologi tersebut untuk menandai kasus berisiko tinggi.

Banyak agensi sudah mulai menguji aplikasi Big Data atau memasukkannya ke dalam produksi. Pada
tahun 2012, pemerintahan Obama mengumumkan Inisiatif Penelitian dan Pengembangan Data yang
Besar, yang bertujuan untuk memajukan proyek-proyek besar Data Inti yang canggih, mempercepat
penemuan dalam sains dan teknik, memperkuat keamanan nasional, mengubah pengajaran dan
pembelajaran, dan memperluas tenaga kerja yang dibutuhkan untuk mengembangkan dan
memanfaatkan teknologi Big Data. Inisiatif ini melibatkan sejumlah lembaga, termasuk Kantor Ilmu
Pengetahuan dan Teknologi Gedung Putih, National Science Foundation, National Institutes of
Health, Departemen Pertahanan, Badan Penelitian Lanjutan Pertahanan, Departemen Energi, Dinas
Kesehatan dan Manusia Departemen dan Survei Geologi AS.

4. NETWORKING

Sejumlah besar informasi yang harus dibolak-balik dalam inisiatif Data Besar memerlukan perangkat
keras jaringan yang kuat. Banyak organisasi sudah beroperasi dengan perangkat keras jaringan yang
memfasilitasi koneksi 10 gigabit, dan mungkin hanya melakukan sedikit modifikasi - seperti
pemasangan port baru - untuk mengakomodasi inisiatif Data Besar. Mengamankan transport
jaringan merupakan langkah penting dalam upgrade apapun, terutama untuk lalu lintas yang
melintasi batas-batas jaringan.

Download kertas putih, "Making Sense of Big Data," untuk mempelajari lebih lanjut tentang analisis
data dan membaca tentang aplikasi dunia nyata.

PASHAIGNATOV / THINKSTOCK

You might also like