a href="http://www.fodey.com/generators/animated/ninjatext.asp">

Wednesday, July 13, 2022

Garasi Ksatria Premium Wash And Detailing

 Garasi ksatria premium wash and detailing

Medokan asri barat 7 blok L no 28 surabaya
Wa : 081335663240
Ig : garasi.ksatria

Eco detailing
Poles+polish body, engine
- size S 400.000
- Size M 450.000
- Size L 550.000
- Size XL 600.000


Poles+polish body
3 step paint correction
- size S 400.000
- Size M 500.000
- Size L 550.000


- Size XL 600.000
Interior detailing
Cleaning dashboard, seat, doortrim, plafon, vacum
- size S 300.000
- Size M 350.000
- Size L 400.000
- Size XL 450.000


Engine detailing
- size S 200.000
- Size M 250.000
- Size L 300.000
- Size XL 350.000


Jamur kaca
- size S 200.000
- Size M 250.000
- Size L 300.000
- Size XL 350.000


Paket Size S
550.000
3 step pain correction
Interior detailing (vacum and wipe)
Engine detailing (dressing and wipe)
Paket Size M
650.000
Paket Size L
750.000
Paket Size XL
850.000


Coating
Size S
1.4 jt

Size M
1.7jt

Size L
2 jt

Size XL
2,2 jt

Premium
2,7jt

Yuk detailing mobil mu di kami




Saturday, June 29, 2019


beli 1 375rb
beli 3 360rb
beli 5 350rb

isi botol 30ml
coating tebal
utk melindungi cat anda

pemakaian pribadi bisa
utk kulakan bisa
rebranding bisa
reseller welcome

ori jepang



WALLPAPER VINYL GRADE PREMIUM

COCOK UNTUK INTERIOR :
- KANTOR
- RUMAH
- APARTEMEN DLL

UKURAN : 0,53M X 10M = 5M2
BERAT : 1,5KG / ROLL
HARGA : DM AJA

TERSEDIA MERK :
- DE CASA
- DE CAFE
- NEW CHANNEL
- MG
- ROCK DLL
- NEW WALL

KELEBIHAN BAHAN VINYL : - TIDAK MUDAH SOBEK
- TAHAN 4 - 5 TAHUN
- MOTIF PERMUKAAN BERTEKSTUR
- MUDAH DIBERSIHKAN
- TAHAN AIR DAN UDARA LEMBAB

SEDIA JUGA TUKANG UNTUK PEMASANGAN
HARGA : DM AJA

MAU KERJASAMA ? KITA WELCOME

#desainrumah #desainkamar#rumahminimalis #rumahidaman#interiorrumah #dekorasirumah#ashiap #wallpaperkantor#wallpapercafe #desaindapur#rumahimpian #inspirasiruangan#desaininterior #wallpaperdinding#dekorasikamar #jokowi#dekorasiruangan #wallpapervinyl#wallpapersurabaya#wallpapermurahsurabaya#wallpaperdecor

Tuesday, December 2, 2014

Resume Datawarehouse - DTS

Data Transformation Services adalah salah satu modul pada SQL Server yang bisa mengkonversi data dari SQL Server ke format data yang lain yang kompatibel dengan OLE DB, ODBC, dan file teks.

Sebuah paket DTS pada dasarnya adalah keterangan yang terperinci mengenai operasi-operasi yang harus dilakukan untuk mengimpor, mengekspor, atau mentransformasi suatu data.

Paket DTS bisa mencakup meng-copy tabel-tabel antardatabase dan mentransformasi data dari 1 format ke format yang lain dengan menggunakan ODBC, AktiveX, dan perintah SQL, atau bahkan program-program eksternal yangbisa menjadi bagian dari paket DTS.

Tools DTS

Import Export Wizzard
Import/Export Wizard untuk membangun DTS packages sederhana dan mensupport perpindahan data dan transformasi sederhana.Import Export Wizzard

DTS Designer
DTS Designer mengimplementasikan DTS object model graphically yang memungkinkan user untuk menciptakan DTS packages dengan fungsi luas.

DTS Run
DTSRun merupakan command prompt utility yang digunakan untuk mengeksekusi DTS packages yang ada.

DTS Run UI
Merupakan grafik interface untuk DTSRun, yang juga mengijinkan pemakaian variable global dan command lines.

Tuesday, November 25, 2014

Resume data warehouse - data quality

Kualitas Data
Ketika kita bicara tentang DATA, yang terpikirkan saya pertama kali adalah hasil capture/tangkapan berupa fakta-fakta lapangan atau arsip-arsip yang biasanya berserakan dimana-mana, atau data dapat didefinisikan sesuatu yang belum memiliki makna (cikal bakal informasi). Saya membuat artikel ini sebagai salah satu keperluan untuk referensi tugas saya, dan kalau ditulis diblog bisa dibaca lagi suatu saat kalau lupa lagi. Mari kita mulai dengan mendefinisikan data menurut beberapa sumber:
Menurut Turban et al. (2005, p38), data adalah deskripsi dasar tentang sesuatu, kejadian, kegiatan, dan transaksi yang ditangkap, direkam, disimpan, dan diklasifikasikan namun tidak terorganisir untuk menyampaikan suatu arti khusus.
Menurut McLeod dan Schell (2007, p12),data terdiri dai fakta dan gambaran yang secara umum tidak dapat digunakan oleh user (perlu diolah).
Dari kedua definisi diatas, dapat diambil kesimpulan bahwa data adalah fakta yang masih mentah dan belum memiliki arti bagi pengguna karena belum diolah.
Semakin banyaknya data yang menumpuk dalam sebuah perusahaan, maka dibutuhkan sebuah penyortiran atau penilaian apakah data tersebut berkualitas atau tidak, sehingga hanya data yang berkualitas saja yang dipertahankan dan diarsipkan, data yang tidak berkualitas, ya masuk sampah. Jika tidak ada penilaian atau pengukuran seperti ini akan mungkin begitu menumpuknya data tetapi tidak berkualitas. Nah berikut ini akan diberikan penjelasan data yang berkualitas itu seperti apa, sehingga sebuah organisasi dapat memanfaatkan data tersebut untuk kepentingan lain dan akan mengurangi sapce/tempat penyimpanan dan efisien.
Menurut Mark Mosley (2008), dalam bukunya “Dictionary of Data Management”, pengertian kualitas data adalah level data yang menyatakan data tersebut akurat (accurate), lengkap (complete), timely (update), konsisten (consistent) sesuai dengan semua kebutuhan peraturan bisnis dan relevan.
Beberapa indikator data yang berkualitas antara lain sebagai berikut:
  1. ACCURACY = data yang tersimpan nilainya benar (name cocok dengan alamatnya)
  2. DOMAIN INTEGRITY = nilai attributnya sesuai batasan yang diperkenankan (nilai attribut laki n perempuan)
  3. DATA TYPE = Nilai data disimpan dalam tipe data yang sesuai (data nama disimpan dengan tipe text)
  4. CONSISTENCY = nilai sebuah field data akan sama semua dalam berbagai berkas (field produk A dgn kode 123, akan selalu sama kodenya di setiap berkas lain)
  5. REDUDANCY = tidak boleh ada data yang sama disimpan di tempat yang berbeda dalam satu sistem
  6. COMPLETENESS = Tidak ada nilai atttribut salah yang diberikan dalam sistem
  7. DATA ANOMALY = sebuah field hanya digunakan sesuai kegunaannya. (field address3  digunakan untuk mencatat baris ketiga dalam alamat bukan untuk telp atau fax)
  8. CLARITY = Kejelasan arti kegunaan dan cara penulisan sebuah data (penamaan khusus)
  9. TIMELY = merepresentasikan waktu dari data yang dimasukkan (jika data digunakan perhari maka data pada warehaouse harus juga dibuat per hari)
  10. USEFULNESS = setiap data harus benar digunakan oleh user
  11. ADHERENCE TO DATA INTEGRITY RULES = taat pada aturan keterhubungan data
Ada beberapa teknik pengukuran apakah data di organisasi/perusahaan kita berkualitas atau tidak, salah satunya dalam buku “Executing Data Quality Projects: Ten Steps to  Quality Data and Trusted Information” oleh Danette McGilvray dari MIT dengan 10 langkah seperti pada gambar dibawah ini
Pendekatan dalam Pengelolaan Kualitas Data
Pendekatan dalam Pengelolaan Kualitas Data
Selain kita menentukan data yang berkualitas, kita juga sebaiknya memperhatikan siklus hidup dari data tersebut, bagaimana data dibuat, disimpan sampai dengan data tersebut dihancurkan, seperti apa metode dari setiap pase-nya.
Siklus Hidup Data

Tuesday, November 18, 2014

Resume Datawarehouse - ETL

ETL  merupakan  sebuah  proses  penting  yang merupakan  bagian  dari  Data  Warehouse  yang  berfungsi  untuk  mentransfer  data  yang  ada  pada basisdata  transaksi  kedalam  basisdata  Data Warehouse yang sudah dimodelkan sedemikian rupa berdasarkan  hypercubes  yang  dibentuk  berdasarkan  laporan - laporan  yang  sering  dipakai  manajemen tingkat  atas.

1)  Ekstraksi,  Mengambil  data  dari  sistem  OLTP,
Ekstraksi (Extraction) adalah operasi ekstraksi data dari sebuah sistem sumber untuk digunakan lebih jauh dalam lingkungan Data Warehouse. Tahapan ini adalah yang paling pertama dalam proses ETL. Setelah Ekstraksi, data ini akan ditransformasikan dan di-load ke dalam Data Warehouse.
Secara Umum
a.   Statis, umumnya dilakukan pada saat pemuatan data  awal  dan  dilakukan  pada  saat  sistem OLTP  tidak berjalan.
b.  Terjadwal,  ada  2  model  pengambilan  data terjadwal yaitu :
a)  Berdasarkan  waktu,  setiap  pengaksesan record  basisdata  OLTP  ditandai  dengan waktu  berupa tanggal dan jam  dan secara terjadwal  sebuah  aplikasi  program  akan dijalankan  untuk  mengakses  Data  Warehouse  berdasarkan  perubahan  waktu  pada basisdata  OLTP.
b)  Berdasarkan  perbedaan  berkas  lama  dan baru,  adanya  backup  harian  terhadap basisdata  OLTP,  dan  secara  terjadwal sebuah  aplikasi  program  akan  dijalankan untuk  mengakses  Data  Warehouse  jika sebuah tabel hari ini dan duplikat tabel hari sebelumnya berbeda.
c.   Seketika,  ada  3  model  pengambilan  data seketika yaitu:
a)  Dengan  mekanisme  log  transaksi,  setiap transaksi  insert,update  dan  delete  terhadap sebuah  record,  maka  basisdata   seketika akan  menulis  pada  log   berkas  yang digunakan  untuk  mem ilih  transaksi  yang telah berhasil dilaksanakan ( Committ).  Logberkas tidak berlaku jika kita menggunakan sistem data yang menggunakan indeks atau berkas teks.
b)  Dengan  mekanisme  basis  data  trigger, sama seperti log transaksi pilihan ini hanya untuk  sistem  yang  menggunakan  aplikasi basisdata.  Trigger  adalah  sebuah  program kecil  yang  akan dijalankan  ketika  sebuah event yang telah didefinisikan terjadi.
c)  Dengan  sumber  aplikasi,  modifikasi program  aplikasi  OLTP  agar  secara seketika mengakses Data Warehouse  setiap ada  proses  insert,update  dan  delete  pada sebuah  record .
Secara Logical
i.                     Ekstraksi Full(Full Extraction)
·         Data diekstrak secara lengkap dari sistem sumber (OLTP). Ekstraksi ini melibatkan seluruh data yang sedang tersedia dalam sistem sumber. Sebuah contoh ekstraksi penuh adalah ekspor file dari sebuah tabel yang berbeda atau kueri remote SQL  yang membaca sumber data lengkap
ii.                   Ekstraksi Inkremental (Incremental Extraction)
·         Pada poin waktu tertentu, hanya data yang memiliki histori data akan diekstrak. Event ini adalah proses ekstraksi yang dilakukan paling akhir atau sebagai contoh sebuah event bisnis yang komplek seperti hari booking terakhir dari suatu periode fiskal. Informasi ini juga dapat disediakan oleh data sumber itu sendiri seperti sebuah kolom aplikasi, merefleksikan time-stamp perubahan yang paling akhir atau sebuah perubahan tabel dimana sebuah mekanisme tambahan yang sesuai menjaga track perubahan selain transaksi yang permulaan. Dalam banyak hal, menggunakan metode ini berarti menambah logika ekstraksi ke dalam sistem sumber.
Kebanyakan Data Warehouse tidak menggunakan teknik menangkap perubahan sebagai bagian proses ekstraksi. Sebaliknya seluruh tabel dari sistem sumber diekstrak ke Data Warehouse atau staging area, dan tabel-tabel ini dibandingkan dengan yang telah diekstrak sebelumnya dari sistem sumber untuk mengidentifikasi data yang berubah. Pendekatan ini boleh jadi tidak memiliki pengaruh yang signifikan terhadap sistem sumber, namun secara jelas dapat menciptakan sebuah beban yang dapat dipertimbangkan pada proses Data Warehouse, terutama sekali jika volume data sangat besar.
Bergantung pada metode ekstrasi logikal yang dipilih dan kapabilitasnya serta restriksi pada sisisumber data, dta yang diekstrak secara fisik diekstrak dengan dua mekanisme. Data dapat diekstrak online dari sistem sumber atau dari sebuah struktur offline. Struktur offline demikian boleh jadi ada atau dapat dihasilkan oleh sebuah fungsi ekstraksi.
Secara Fisik
·         Online Extraction
o   Data diekstrak langsung dari sistem sumber itu sendiri. Proses ekstraksi dapat berhubungan secara langsung dengan sistem sumber untuk mengakses tabel sumber atau ke sebuah sistem perantara yang menyimpan data dengan sebuah cara yang dikonfigurasikan terlebih dahulu (sebagai contoh log atau tabel perubahan). Dengan catatan bahwa sistem perantara secara fisik tidak berbeda dari sistem sumber.
·         Offline Extraction
o   Data tidak diekstrak secara langsung dari sistem sumber namun dibatasi secara eksplisit diluar sistem sumber orisinil. Data telah memiliki struktur atau telah dibuat melalui prosedur ekstraksi.
Beberapa struktur yang harus dipertimbangkan antara lain :
                    Flat file
                    Dump File, informasi mengenai objek yang dimasukkan atau tidak dimasukkan, bergantung pada utility yang dipilih.
                    Log Archive dan Redo
                    Transportable Tablespaces, cara ekstrak dan memindahkan data bervolume besar antar Database.


2)  Transformation,  adalah  proses  pengambilan  data mentah  yang  belum  bisa  disimpan  pada  Data Warehouse,  oleh  karena  itu  data  harus  sesuai standar  struktur  Data  Warehouse  yang  telah ditentukan  sehingga  bisa  disimpan  ke  Data Warehouse.  Transformation  data  terdiri  dari beberapa tahap yaitu:
a.       Seleksi, men- select record  dari tabel basisdata OLTP, tahap ini merupakan bagian dari proses pengambilan data.
b.      Pemisahan  dan  Penggabungan,  manipulasi data yang dibutuhkan untuk men- select record OLTP, yaitu melakukan proses pemisahan dan penggabungan bila dibutuhkan.
c.       Konversi,   dilakukan untuk 2 alasan yaitu:
a.       Standarisasi  pengambilan  data  dari  berbagai sumber
b.      Membuat  field   dapat  digunakan  Data Warehouse  dan dipahami oleh  pengguna
d.      Ringkasan, data yang terlalu detail tidak selalu dibutuhkan pada Data Warehouse  oleh karena itu  perlu  diringkas  berdasarkan  kebutuhan Data Warehouse.
e.      Pengayaan,  menggunakan  sebuah  atau  beberapa  field   untuk  membuat  hasil  data  yang terbaik  pada  Data  Warehouse ,  prinsip  ini merupakan  pengembangan  dari  kumpulan sebuah atau beberapa  field   dari beragam record yang  menghasilkan  sebuah  field   untuk  Data Warehouse.
Dalam mentransformasikan data ada beberapa tipe fungsi transformasi yaitu:
b)      Revisi Format, merubah tipe data dan panjang field   agar  dapat  distandarkan  dan  disesuaikan dengan  standar  struktur  penyimpanan  pada Data Warehouse.
c)       Penghilangan  pengkodean  field,  p engkodean harus  dihilangkan  agar  mudah  dimengerti pengguna.  Contoh:  kode  1,  2  untuk  jenis kelamin harus dirubah menjadi Pria, Wanita.
d)      Menghitung  dan  menghasilkan  nilai,  Menghitung  dan  menghasilkan  nilai  rata- rata  yang dibutuhkan.
e)      Memecah  field,  dibutuhkan  agar  Data  Warehouse  mudah  dipelihara  dan  dimengerti pengguna. Contoh: Nama harus dipecah menjadi  nama  depan,  nama  panggilan,  nama keluarga.
f)       Penggabungan informasi, bukan kebalikan dari memecah field , tapi menggabungkan data dari bermacam - macam sumber data.
g)      Konversi kumpulan karakter, jika data berasal dari  sumber  yang  berbeda  arsitekturnya  baik dari perangkat keras atau sistem operasi yang berbeda.  Contoh:  konversi  dari  EBCDIC  ke ASCII.
h)      Konversi  unit  pengukuran,  digunakan  untuk perusahaan  yang  mempunyai  cabang  di  luar negeri.
i)        Konversi  tanggal  dan  jam,  menggunakan format tanggal dan jam yang satu  dan standar.
j)        Ikhtisar, m enjumlahkan transaksi
k)      Restrukturisasi  kunci,  hindarkan  pembuatan kunci yang  mempunyai arti membingungkan. Ubahlah beberapa kunci ke kunci yang bersifat umum.
l)        Deduplikasi,  menghilangkan  duplikasi  data yang berasal dari sistem yang berjalan.


Dari perspektif arsitektural, Data dapat ditransformasikan dengan dua cara :
·         Multistage Data Transformation
Logika transformasi data bagi kebanyakan Data Warehouse terdiri dari beberapa tahapan. Sebagai contoh, dalam transformasi rekod baru yang dimasukkan ke dalam sebuah tabel penjualan (sales), boleh jadi terdapat tahapan transformasi logik yang terpisah untuk memvalidasi masing-masing key dimensi. Gambaran secara grafis dari proses transformation logic adalah sbb :

·         Pipelined Data Transformation
Arus proses ETL dapat diubah secara dramatis dan database menjadi sebuah bagian integral solusi ETL. Fungsionalitas barunya melukiskan beberapa pembentukan tahapan proses penting yang kuno ketika beberapa yang lainnya dapat dimodel kembali untuk menambah arus data dan transformasi data menjadi lebih dapat diukur. Kegiatannya bergeser dari transformasi serial hingga proses load (dengan kebanyakan kegiatan dilakukan diluar database) atau load-kemudian proses transformasi untuk meningkatkan transformasi selagi loading.


3)  Loading, ada 4 mode Loading  yaitu:
a)      Panggil, jika data sudah ada pada tabel  Data Warehouse  maka  proses  panggil  ini  akan menghapus  data  yang  sudah  ada  dan menggantinya,  jika  data  belum  ada  maka proses ini akan mengisi tabel Data Warehouse. abc
b)      Tambah, jika data sudah ada pada tabel  Data Warehouse  maka  proses  tambah  ini  akan menambah  data  dan  ada  kemungkinan terdapat duplikat  record  dan jika dikehendaki dimungkinkan duplikat record  ditolak.
c)       Destructive  Merge,  jika  kunci  record  yang datang  cocok  dengan  kunci  record  yang  ada maka akan merubah record  yang ada dan jika record  yang datang adalah  record  baru maka akan menambah record   baru.
d)      Constructive  Merge,  jika  kunci  record  yang datang  cocok  dengan  kunci  record  yang  ada maka  akan  menambah  record  baru  dan menandai  record  baru  tersebut  sebagai penghubung  ke  record  lama  yang  cocok dengan record   yang akan datang.

Kesimpulan ETL
ETL merupakan sebuah konsep yang dibutuhkan pada  Data  Warehouse  yang  berfungsi  mentransformasikan  data  pada  basis data  OLTP  ke dalam Data Warehouse. ETL didalam pelaksanaannya membutuhkan proses  ETL,  Pilihan  penerapan  algoritma  ETL  yang  akan digunakan  dapat  disesuaikan  dengan  desain  model Data  Warehouse  yang  digunakan,  teknologi  manajemen  basis data  dan  aplikasi  perangkat  lunak  yang digunakan  yang  akan  lebih  baik  jika  sama  dengan aplikasi perangkat lunak untuk menampilkan laporan dan  query  dari  Data Warehouse  dan  teknologi manajemen  basis data  yang  digunakan  untuk  menyimpan data pada Data Warehouse.



Monday, October 20, 2014

Resume Data Warehouse pertemuan 6

Dalam menggambarkan relasi database pada data warehouse dapat digunakan 2 pendekatan model skema yaitu star schema atau snowflake schema. Disebut star schema karena Entity Relationship Diagram atau ERD-nya yang menyerupai bintang, tabel fakta berada di tengah dengan dikelilingi tabel dimensi di sampingnya.

Berikut adalah contoh gambar star schema :




Sedangkan snowflake schema lebih kompleks dibandingkan dengan star schema karena merupakan pengembangan dari star schema, karena tabel-tabel dimensinya merupakan hasil normalisasi dari beberapa tabel yang berhubungan.

Berikut adalah contoh gambar snowflake schema :












Berikut adalah kelebihan dan kekurangan model dimensi star schema.

Kelebihan model dimensi star schema :
-cenderung mudah dipahami karena modelnya yang lebih sederhana,
-memudahkan mencari isi karena kesderhanaannya dengan cara melihat step by step dari masing-masing dimensinya,
-proses query lebih cepat pada saat proses OLAP.

Kekurangan model dimensi star schema :
-ukuran data lebih besar karena ada data yang disimpan ulang,
-maintenance dan update lebih sulit.

Berikut adalah kelebihan dan kekurangan model dimensi snowflake schema.

Kelebihan model dimensi snowflake schema :
-ukuran data lebih kecil di dalam tempat penyimpanan,
-lebih mudah dilakukan maintenance dan update,
-proses query lebih cepat pada saat proses ETL.

Kekurangan model dimensi snowflake schema :
-cenderung lebih sulit dipahami karena kompleksitasnya,

-sulit mencari isi karena melihat strukturnya yang kompleks dan bercabang-cabang.

Tuesday, October 14, 2014

Tugas dari pertemuan 5 Datawarehouse

Pappernya dari papper tugas pertemuan 3 Perpus AMIKOM Yogya disini

Star Schema 
Pada sistem OLTP (Online Transactional Processing) digunakan suatu teknik pemodelan data yang disebut sebagai E-R (EntityRelationaship). Pada data warehousedigunakan teknik pemodelan data yang disebut dimensional modelling technique. Pemodelan dimensional adalah suatu model berbasis pemanggilan yang mendukung akses query volume tinggi. Star Schemaadalah alat dimana pemodelan dimesional diterapkan dan berisi sebuah tabel fakta pusat. Tabel fakta berisi atribut deskriptif yang digunakan untuk proses querydan foreign key untuk menghubungkan ke tabel dimensi. Atribut analisis keputusan terdiri dari ukuran performa, metrik operasional, ukuran agregat, dan semua metrik yang lain yang diperlukan untuk menganalisis performa organisasi. Tabel fakta menunjukkan apa yang didukung oleh data warehouseuntuk analisis keputusan. Tabel dimensi mengelilingi tabel fakta pusat. Tabel dimensi berisi atribut yang menguraikan data yang dimasukkan dalam tabel fakta. Tabel dimensi menunjuk bagaimana data akan dianalisis.




















Studi Kasus Perpus UNIKOM Yogya

Data adalah sesuatu yang belum mempunyai arti bagi penerimanya dan masih memerlukan adanya suatu pengolahan. Data bisa berujut suatu keadaan, gambar, suara, huruf, angka, matematika, bahasa ataupun simbol-simbol lainnya yang bisa kita gunakan sebagai bahan untuk melihat lingkungan, obyek, kejadian ataupun suatu konsep. Data sendiri bagi perpus AMIKOM Yogya sangat penting karena merupakan inti yang berisi data dosen data mahasiswa. Selama ini Perpus AMIKOM Yogya masih menggunakan cara yang konvensional dalam melakukan transaksi di perpustakaannya, seperti penginputan data, peminjaman buku dan lain lain. Untuk itu dipilih perancangan Star Schema dalam pembuatan Data warehouse di perpus AMIKOM Yogya ini. Mengapa Perpus AMIKOM Yogya memilih star schema karena 

-Menyediakan pemetaan langsung dan intuitif antara entitas-entitas bisnis yang sedang dianalisa oleh end users dan desain schema.
-Menyediakan performa teroptimasi untuk star query umum.
-Didukung oleh banyak business intelligence tools, yang dapat melakukan antisipasi atau bahkan membutuhkan agar schema data warehouse berisi tabel-tabel dimensi. 

Sumber data 
Sumber data yang digunakan dalam data warehouse adalah data-data dalam database perpustakaan, yang berisi antara lain:
1. Tabel Buku
2. Tabel Jenis
3. Tabel Pengarang
4. Tabel Karang
5. Tabel IsiCD
6. Tabel Program
7. Tabel Terbit
8. Tabel Penerbit
9. Tabel Kuliah
10. Tabel Buku_mk
11. Tabel Data_buku
12. Tabel Sumber
13. Tabel Mhs
14. Tabel Dosen
15. Tabel Pinjam_Mhs
16. Tabel Pinjam_DSN
17. Tabel Sirkulasi1
18. Tabel Sirkulasi2

Berikut adalah database dari perpus UNIKOM Yogya yang akan diubah ke star schema :

































Dari database diatas maka kita bisa mengetahui bagaimana untuk menentukan perancangan star schema. Perancangan star schema perpus ANIKOM Yogya bisa dilihat dibawah:





Monday, October 13, 2014

Tugas dari pertemuan 4 Datawarehouse

Pappernya klik disini

Arsitektur  data  warehouse  meliputi  tool untuk  mengekstrak  data  dari  berbagai  sumber  data  baik  eksternal  maupun  database  operasional,  untuk  membersihkan  data,  transformasi  dan  mengintegrasikan  data,  untuk  memasukkan  data  ke  dalam  data  warehouse,  dan  secara  periodic  untuk memperbaharui  gudang  untuk  mencerminkan pembaharuan pada sumber data dari gudang. Data di dalam data warehouse disimpan dan diatur oleh satu atau  lebih  server  yang  dapat  menyajikan  gambaran data  secara  multidimensional  ke  dalam  bentuk  atau format  seperti  query,  penulisan  laporan,  tool  untuk analisis, dan tool untuk data mining













Sistem pendukung keputusan untuk menambah kuota snmptn Undangan di Universitas Brawijaya ini menggunakan beberapa aplikasi. Untuk  pembuatan  keputusan,  data  yang akan dimasukkan ke dalam  data warehouse dapat  diambil  dari  berbagai  aplikasi  yang berhubungan  dengan  keputusan  yang  akan dibuat.

Berikut adalah gambaran arsitektur datawarehouse yang akan dibuat:


















Infrastruktur 
Infrastruktur data warehouse adalah software, hardware, pelatihan dan komponen-komponen lainnya yang memberikan dukungan yang dibutuhkan untuk mengimplementasikan data warehouse

Infrastrktur yg mungkin dibutuhkan oleh Univ UB ini adalah :

- Software 
1. VB dotnet
2. SQL Server
3. Powerdesainer
4. Microsoft Visio
5. OS windows(minim Windows xp)

- Hardware
1. PC/Laptop
2. Spek minimum core 2 duo, ram 1gb, hardisk 4gb ddr2 

- Pelatihan untuk para karyawan/admin yang akan menjalankan aplikasi tersebut




Referensi:




Sunday, September 28, 2014

Tugas dari pertemuan 3 Datawarehouse

Ini link Papernya Klik Disini

Untuk membuat datawarehouse kita memerlukan beberapa analisis:
- Studi  literatur  tentang  Data  Akademik   yang  ada  pada  di Perpustakaan STMIK AMIKOM Yogya
- Survey dan analisis kebutuhan STMIK AMIKOM Yogya terhadap pengelolaan data terintegrasi
- Perancangan dan pembuatan data warehouse (star schema) :

1.Merancang Entity Relationship Diagram (ERD).
2.Menetapkan tabel-tabel yang digunakan sistem.
3.Membuat star schema

Kebutuhan Informasi 
Berdasarkan hasil pengamatan dan wawancara langsung kepada petugas atau manajemen
perpustakaan didapat kebutuhan informasi sebagai berikut:
1.  Tren terhadap buku-buku yang dipinjam oleh dosen dan mahasiswa.
2.  Informasi mengenai jenis buku yang sering dipinjam.
3. Tren proses sirkulasi.
4.  Informasi pengenai nama pengarang yang bukunya sering dipinjam.
5.  Informasi mengenai nama penerbit yang bukunya sering dipinjam.

Berikut adalah perancangan Skema untuk pembuatan Datawarehouse di STMIK AMIKOM Yogya














Analisis pada data warehouse
Analisis pada data warehousepada penelitian ini dilakukan dengan cara membuat suatu
reporting sesuai dengan kebutuhan bisnis. Adapun beberapa report yang telah dibuat adalah
sebagai berikut:
1. Laporan jumlah peminjaman pertahun.
2. Laporan buku terlaris.
3. Laporan hari teramai.
4. Laporan pengarang terlaris.
5. Laporan penerbit terlaris.

Dari paper yang saya baca, kebutuhan non fungsionalnya sebagai berikut:
- Data warehouse hanya bisa di akses oleh admin perpustakaan(penanggung jawab perpustakaan)
- Dibutuhkan datamart untuk mengelola datawarehouse sebesar perpustakaan
- Data warehouseyang dibangun sudah dilengkapi dengan proses loadingberkala dalam bentuk
  otomatisasi sehingga memudahkan pihak administrator data warehouse
- Diperlukan pengembangan bahwa data warehouseperpustakaan sebagai data mart