Headline
Sebagian besar pemandu di Gunung Rinjadi belum besertifikat.
Sebagian besar pemandu di Gunung Rinjadi belum besertifikat.
ARTIFICIAL intelligence (AI) atau kecerdasan buatan generatif membantu organisasi berinovasi lebih cepat dan memberikan pengalaman pelanggan yang lebih disesuaikan. Beban kerja AI membutuhkan data yang baru dan kaya konteks untuk memastikan model yang mendasari menghasilkan output dan hasil yang akurat bagi bisnis untuk membuat keputusan yang tepat berdasarkan informasi terkini yang tersedia.
Namun, developer (pengembang) program atau aplikasi sering kali harus menggunakan beberapa alat dan bahasa untuk bekerja dengan model AI dan jalur pemrosesan data yang menyebabkan beban kerja yang kompleks dan terfragmentasi. Hal ini dapat menyulitkan dalam memanfaatkan data terbaru dan relevan untuk pengambilan keputusan, sehingga menyebabkan kesalahan atau inkonsistensi dan mengorbankan keakuratan dan keandalan wawasan yang digerakkan oleh AI. Masalah-masalah ini dapat memakan waktu dalam pengembangan dan kesulitan dalam memelihara dan meningkatkan skala aplikasi AI.
Dengan AI Model Inference di Confluent Cloud untuk Apache Flink, organisasi dapat menggunakan pernyataan SQL sederhana dari dalam Apache Flink untuk melakukan panggilan ke mesin AI, termasuk OpenAI, AWS SageMaker, GCP Vertex, dan Microsoft Azure. Kini, perusahaan dapat mengatur tugas pembersihan dan pemrosesan data dalam satu platform.
Baca juga : Membangun Industri 4.0 dengan Teknologi Kecerdasan Artifisial
"Apache Kafka dan Flink ialah penghubung penting untuk mendorong pembelajaran mesin dan aplikasi kecerdasan buatan dengan data yang paling tepat waktu dan akurat," ujar Shaun Clowes, Chief Product Officer di Confluent. "Inferensi Model AI Confluent menghilangkan kerumitan yang ada saat menggunakan data streaming untuk pengembangan AI dengan memungkinkan organisasi berinovasi lebih cepat dan memberikan pengalaman pelanggan yang kuat."
AI Model Inference memungkinkan perusahaan menyederhanakan pengembangan AI dengan menggunakan SQL syntax yang sudah dikenal untuk bekerja secara langsung dengan model AI/ML, sehingga mengurangi kebutuhan akan alat dan bahasa khusus. Perusahaan juga dapat menetapkan koordinasi yang lancar antara pemrosesan data dan alur kerja AI untuk meningkatkan efisiensi dan mengurangi kompleksitas operasional. Perusahaan pun memungkinkan pengambilan keputusan berbasis AI yang akurat dan real-time dengan memanfaatkan data streaming kontekstual yang baru.
"Memanfaatkan data kontekstual yang baru sangat penting untuk melatih dan menyempurnakan model AI dan untuk digunakan pada saat pengambilan keputusan guna meningkatkan akurasi dan relevansi hasil," ujar Stewart Bond, Vice President Data Intelligence and Integration Software IDC. "Organisasi perlu meningkatkan efisiensi pemrosesan AI dengan menyatukan integrasi data dan jalur pemrosesan dengan model AI. Flink sekarang dapat memperlakukan model dasar sebagai sumber daya kelas satu, memungkinkan penyatuan pemrosesan data waktu nyata dengan tugas-tugas AI untuk merampingkan alur kerja, meningkatkan efisiensi, dan mengurangi kompleksitas operasional. Kemampuan ini memberdayakan organisasi untuk membuat keputusan berbasis AI yang akurat dan real-time berdasarkan data streaming terkini dan relevan sekaligus meningkatkan kinerja dan nilai."
Baca juga : VIDA Luncurkan Deepfake Shield untuk Hadapi Ancaman Penipuan Deepfake yang Dihasilkan AI
Dukungan untuk AI Model Inference saat ini tersedia dalam akses awal untuk pelanggan tertentu. Pelanggan dapat mendaftar untuk mendapatkan akses lebih awal untuk mempelajari lebih lanjut tentang penawaran ini. Confluent Platform untuk Apache Flink memungkinkan pemrosesan aliran di cloud pribadi dan lingkungan lokal.
Banyak organisasi yang mencari solusi hibrida untuk melindungi beban kerja yang lebih sensitif. Dengan Confluent Platform untuk Apache Flink, distribusi Flink yang didukung penuh oleh Confluent, pelanggan dapat dengan mudah memanfaatkan pemrosesan stream untuk beban kerja on-prem atau private cloud dengan dukungan para ahli secara jangka panjang. Apache Flink dapat digunakan bersama-sama dengan Confluent Platform dengan perubahan minimal pada pekerjaan dan arsitektur Flink yang sudah ada.
Platform Confluent untuk Apache Flink dapat membantu organisasi meminimalkan risiko dengan dukungan terpadu Flink dan Kafka serta panduan ahli dari para pakar terkemuka di industri streaming data. Ini juga dapat memperoleh bantuan tepat waktu dalam memecahkan masalah dan menyelesaikan masalah, sehingga mengurangi dampak gangguan operasional pada aplikasi yang sangat penting. Terakhir, ini memastikan bahwa aplikasi pemrosesan streaming aman dan selalu diperbarui dengan perbaikan bug dan kerentanan di luar siklus. (Z-2)
Universitas Johns Hopkins mengembangkan model AI yang mampu memprediksi risiko kematian jantung mendadak lebih akurat.
Startup teknologi lingkungan GreenTeams mengumumkan keberhasilan mereka menutup putaran pendanaan Seri A yang dipimpin oleh Oriza Greenwillow Technology Fund
Fitur-fitur AI dalam kelas pintar memungkinkan dosen memantau partisipasi dan respons mahasiswa secara real-time, termasuk identifikasi mahasiswa yang tidak aktif.
Prioritas utama dalam kemajuan AI tetap konsisten, yakni membangun infrastruktur yang efisien, mengoptimalkan algoritma, dan memastikan penerapan yang praktis.
SEPERTI kolaborasi Intel dan Microsoft yang melahirkan PC, di era Generative AI (GenAI), teknologi Large Language Model (LLM) membutuhkan sistem operasi.
Menanggapi kekhawatiran terhadap kemajuan teknologi dan kecerdasan buatan (AI), TGB menegaskan bahwa pengkaji Al-Quran tidak perlu takut.
Copyright @ 2025 Media Group - mediaindonesia. All Rights Reserved