Siaran ini membawa anda melalui cabaran paling biasa yang dihadapi oleh pelanggan semasa mencari dokumen dalaman, dan memberi anda panduan konkrit tentang cara perkhidmatan AWS boleh digunakan untuk mencipta bot perbualan AI generatif yang menjadikan maklumat dalaman lebih berguna.
Data tidak berstruktur menyumbang 80% daripada semua data ditemui dalam organisasi, yang terdiri daripada repositori manual, PDF, Soalan Lazim, e-mel dan dokumen lain yang berkembang setiap hari. Perniagaan hari ini bergantung pada repositori maklumat dalaman yang terus berkembang, dan masalah timbul apabila jumlah data tidak berstruktur menjadi tidak terurus. Selalunya, pengguna mendapati diri mereka membaca dan menyemak banyak sumber dalaman yang berbeza untuk mencari jawapan yang mereka perlukan.
Forum soal jawab dalaman boleh membantu pengguna mendapatkan jawapan yang sangat khusus tetapi juga memerlukan masa menunggu yang lebih lama. Dalam kes Soalan Lazim dalaman khusus syarikat, masa menunggu yang lama mengakibatkan produktiviti pekerja yang lebih rendah. Forum soal jawab sukar untuk skala kerana ia bergantung pada jawapan bertulis secara manual. Dengan AI generatif, pada masa ini terdapat anjakan paradigma dalam cara pengguna mencari dan mencari maklumat. Langkah logik seterusnya ialah menggunakan AI generatif untuk memekatkan dokumen besar kepada maklumat bersaiz gigitan yang lebih kecil untuk penggunaan pengguna yang lebih mudah. Daripada menghabiskan masa yang lama membaca teks atau menunggu jawapan, pengguna boleh menjana ringkasan dalam masa nyata berdasarkan berbilang repositori maklumat dalaman yang sedia ada.
Gambaran keseluruhan penyelesaian
Penyelesaian itu membolehkan pelanggan mendapatkan semula respons tersusun kepada soalan yang ditanya tentang dokumen dalaman dengan menggunakan model pengubah untuk menjana jawapan kepada soalan tentang data yang belum dilatih, teknik yang dikenali sebagai dorongan sifar. Dengan menggunakan penyelesaian ini, pelanggan boleh memperoleh faedah berikut:
- Cari jawapan tepat kepada soalan berdasarkan sumber dokumen dalaman sedia ada
- Kurangkan masa yang dihabiskan pengguna mencari jawapan dengan menggunakan Model Bahasa Besar (LLM) untuk memberikan jawapan yang hampir serta-merta kepada pertanyaan kompleks menggunakan dokumen dengan maklumat terkini.
- Cari soalan yang telah dijawab sebelum ini melalui papan pemuka berpusat
- Kurangkan tekanan yang disebabkan oleh menghabiskan masa membaca maklumat secara manual untuk mencari jawapan
Retrieval Augmented Generation (RAG)
Retrieval Augmented Generation (RAG) mengurangkan beberapa kelemahan pertanyaan berasaskan LLM dengan mencari jawapan daripada pangkalan pengetahuan anda dan menggunakan LLM untuk meringkaskan dokumen menjadi jawapan ringkas. Sila baca siaran ini untuk mengetahui cara melaksanakan pendekatan RAG dengan Amazon Kendra. Risiko dan had berikut dikaitkan dengan pertanyaan berasaskan LLM yang ditangani oleh pendekatan RAG dengan Amazon Kendra:
- Halusinasi dan kebolehkesanan - LLMS dilatih pada set data yang besar dan menjana tindak balas mengenai kebarangkalian. Ini boleh membawa kepada jawapan yang tidak tepat, yang dikenali sebagai halusinasi.
- Silo berbilang data – Untuk merujuk data daripada berbilang sumber dalam respons anda, seseorang perlu menyediakan ekosistem penyambung untuk mengagregat data. Mengakses berbilang repositori adalah manual dan memakan masa.
- Keselamatan – Keselamatan dan privasi adalah pertimbangan kritikal apabila menggunakan bot perbualan yang dikuasakan oleh RAG dan LLM. Walaupun menggunakan Amazon Comprehend untuk menapis data peribadi yang mungkin diberikan melalui pertanyaan pengguna, masih terdapat kemungkinan untuk memaparkan maklumat peribadi atau sensitif secara tidak sengaja, bergantung pada data yang diserap. Ini bermakna mengawal akses kepada chatbot adalah penting untuk mengelakkan akses yang tidak diingini kepada maklumat sensitif.
- Perkaitan data - LLMS dilatih mengenai data sehingga tarikh tertentu, yang bermaksud maklumat selalunya tidak terkini. Kos yang berkaitan dengan model latihan pada data terkini adalah tinggi. Untuk memastikan respons yang tepat dan terkini, organisasi memikul tanggungjawab mengemas kini dan memperkayakan kandungan dokumen yang diindeks secara berkala.
- Kos – Kos yang berkaitan dengan menggunakan penyelesaian ini harus menjadi pertimbangan untuk perniagaan. Perniagaan perlu menilai dengan teliti keperluan belanjawan dan prestasi mereka apabila melaksanakan penyelesaian ini. Menjalankan LLM boleh memerlukan sumber pengiraan yang banyak, yang boleh meningkatkan kos operasi. Kos ini boleh menjadi had untuk aplikasi yang perlu beroperasi pada skala besar. Walau bagaimanapun, salah satu faedah AWS Cloud ialah fleksibiliti untuk hanya membayar apa yang anda gunakan. AWS menawarkan model penentuan harga yang mudah, konsisten, bayar semasa anda pergi, jadi anda hanya dicaj untuk sumber yang anda gunakan.
Penggunaan Amazon SageMaker JumpStart
Untuk model bahasa berasaskan pengubah, organisasi boleh mendapat manfaat daripada menggunakan Amazon SageMaker JumpStart, yang menawarkan koleksi model pembelajaran mesin pra-bina. Amazon SageMaker JumpStart menawarkan pelbagai model asas penjanaan teks dan menjawab soalan (S&J) yang boleh digunakan dan digunakan dengan mudah. Penyelesaian ini menyepadukan model FLAN T5-XL Amazon SageMaker JumpStart, tetapi terdapat aspek berbeza yang perlu diingat semasa memilih model asas.
Mengintegrasikan keselamatan dalam aliran kerja kami
Mengikuti amalan terbaik Pilar Keselamatan Rangka Kerja yang Dibina dengan Baik, Amazon Cognito digunakan untuk pengesahan. Kumpulan Pengguna Amazon Cognito boleh disepadukan dengan pembekal identiti pihak ketiga yang menyokong beberapa rangka kerja yang digunakan untuk kawalan akses, termasuk Keizinan Terbuka (OAuth), OpenID Connect (OIDC) atau Security Assertion Markup Language (SAML). Mengenal pasti pengguna dan tindakan mereka membolehkan penyelesaian untuk mengekalkan kebolehkesanan. Penyelesaian itu juga menggunakan ciri pengesanan maklumat pengenalan peribadi (PII) Amazon Comprehend untuk mengenal pasti dan menyunting PII secara automatik. PII yang disunting termasuk alamat, nombor keselamatan sosial, alamat e-mel dan maklumat sensitif lain. Reka bentuk ini memastikan bahawa sebarang PII yang disediakan oleh pengguna melalui pertanyaan input disunting. PII tidak disimpan, digunakan oleh Amazon Kendra, atau disalurkan kepada LLM.
Panduan Penyelesaian
Langkah berikut menerangkan aliran kerja Soalan menjawab atas aliran dokumen:
- Pengguna menghantar pertanyaan melalui antara muka web.
- Amazon Cognito digunakan untuk pengesahan, memastikan akses selamat kepada aplikasi web.
- Bahagian hadapan aplikasi web dihoskan pada AWS Amplify.
- Amazon API Gateway menjadi tuan rumah REST API dengan pelbagai titik akhir untuk mengendalikan permintaan pengguna yang disahkan menggunakan Amazon Cognito.
- Penyuntingan PII dengan Amazon Comprehend:
- Pemprosesan Pertanyaan Pengguna: Apabila pengguna menyerahkan pertanyaan atau input, ia terlebih dahulu melalui Amazon Comprehend. Perkhidmatan menganalisis teks dan mengenal pasti mana-mana entiti PII yang terdapat dalam pertanyaan.
- Pengekstrakan PII: Amazon Comprehend mengekstrak entiti PII yang dikesan daripada pertanyaan pengguna.
- Pendapatan Maklumat Berkaitan dengan Amazon Kendra:
- Amazon Kendra digunakan untuk mengurus indeks dokumen yang mengandungi maklumat yang digunakan untuk menjana jawapan kepada pertanyaan pengguna.
- The Pengambilan QA LangChain modul digunakan untuk membina rantai perbualan yang mempunyai maklumat berkaitan tentang pertanyaan pengguna.
- Integrasi dengan Amazon SageMaker JumpStart:
- Fungsi AWS Lambda menggunakan perpustakaan LangChain dan menyambung ke titik akhir Amazon SageMaker JumpStart dengan pertanyaan isi konteks. Titik akhir Amazon SageMaker JumpStart berfungsi sebagai antara muka LLM yang digunakan untuk inferens.
- Menyimpan respons dan mengembalikannya kepada pengguna:
- Respons daripada LLM disimpan dalam Amazon DynamoDB bersama-sama dengan pertanyaan pengguna, cap waktu, pengecam unik dan pengecam sewenang-wenang lain untuk item seperti kategori soalan. Menyimpan soalan dan jawapan sebagai item diskret membolehkan fungsi AWS Lambda mencipta semula sejarah perbualan pengguna dengan mudah berdasarkan masa soalan ditanya.
- Akhir sekali, respons dihantar semula kepada pengguna melalui permintaan HTTP melalui respons integrasi API Amazon API Gateway REST.
Langkah berikut menerangkan fungsi AWS Lambda dan alirannya melalui proses:
- Semak dan sunting sebarang maklumat PII / Sensitif
- LangChain QA Retrieval Chain
- Cari dan dapatkan maklumat yang berkaitan
- Pengisian Konteks & Kejuruteraan Segera
- Inferens dengan LLM
- Kembalikan jawapan & Simpannya
Kes guna
Terdapat banyak kes penggunaan perniagaan di mana pelanggan boleh menggunakan aliran kerja ini. Bahagian berikut menerangkan cara aliran kerja boleh digunakan dalam industri dan menegak yang berbeza.
Bantuan Pekerja
Latihan korporat yang direka dengan baik boleh meningkatkan kepuasan pekerja dan mengurangkan masa yang diperlukan untuk menerima pekerja baharu. Apabila organisasi berkembang dan kerumitan meningkat, pekerja mendapati sukar untuk memahami banyak sumber dokumen dalaman. Dokumen dalaman dalam konteks ini termasuk garis panduan, dasar dan Prosedur Operasi Standard syarikat. Untuk senario ini, pekerja mempunyai soalan tentang cara meneruskan dan mengedit tiket tiket keluaran dalaman. Pekerja boleh mengakses dan menggunakan bot perbualan kecerdasan buatan (AI) generatif untuk bertanya dan melaksanakan langkah seterusnya untuk tiket tertentu.
Kes penggunaan khusus: Automatikkan penyelesaian isu untuk pekerja berdasarkan garis panduan korporat.
Langkah berikut menerangkan fungsi AWS Lambda dan alirannya melalui proses:
- Ejen LangChain untuk mengenal pasti niat
- Hantar pemberitahuan berdasarkan permintaan pekerja
- Ubah suai status tiket
Dalam rajah seni bina ini, video latihan korporat boleh ditelan melalui Transkripsi Amazon untuk mengumpul log skrip video ini. Selain itu, kandungan latihan korporat yang disimpan dalam pelbagai sumber (iaitu, Confluence, Microsoft SharePoint, Google Drive, Jira, dll.) boleh digunakan untuk mencipta indeks melalui penyambung Amazon Kendra. Baca artikel ini untuk mengetahui lebih lanjut tentang koleksi penyambung asli yang boleh anda gunakan dalam Amazon Kendra sebagai titik sumber. Perangkak Amazon Kendra kemudiannya boleh menggunakan kedua-dua skrip video latihan korporat dan dokumentasi yang disimpan dalam sumber lain ini untuk membantu bot perbualan dalam menjawab soalan khusus untuk garis panduan latihan korporat syarikat. Ejen LangChain mengesahkan kebenaran, mengubah suai status tiket dan memberitahu individu yang betul menggunakan Perkhidmatan Pemberitahuan Mudah Amazon (Amazon SNS).
Pasukan Sokongan Pelanggan
Menyelesaikan pertanyaan pelanggan dengan pantas meningkatkan pengalaman pelanggan dan menggalakkan kesetiaan jenama. Pangkalan pelanggan yang setia membantu memacu jualan, yang menyumbang kepada keuntungan dan meningkatkan penglibatan pelanggan. Pasukan sokongan pelanggan menghabiskan banyak tenaga untuk merujuk banyak dokumen dalaman dan perisian pengurusan perhubungan pelanggan untuk menjawab pertanyaan pelanggan tentang produk dan perkhidmatan. Dokumen dalaman dalam konteks ini boleh termasuk skrip panggilan sokongan pelanggan generik, buku permainan, garis panduan peningkatan dan maklumat perniagaan. Bot perbualan AI generatif membantu dengan pengoptimuman kos kerana ia mengendalikan pertanyaan bagi pihak pasukan sokongan pelanggan.
Kes penggunaan khusus: Mengendalikan permintaan penukaran minyak berdasarkan sejarah perkhidmatan dan pelan perkhidmatan pelanggan yang dibeli.
Dalam rajah seni bina ini, pelanggan dihalakan ke sama ada bot perbualan AI generatif atau pusat hubungan Amazon Connect. Keputusan ini boleh berdasarkan tahap sokongan yang diperlukan atau ketersediaan ejen sokongan pelanggan. Ejen LangChain mengenal pasti niat pelanggan dan mengesahkan identiti. Ejen LangChain juga menyemak sejarah perkhidmatan dan pelan sokongan yang dibeli.
Langkah berikut menerangkan fungsi AWS Lambda dan alirannya melalui proses:
- Ejen LangChain mengenal pasti niat
- Dapatkan Maklumat Pelanggan
- Semak sejarah perkhidmatan pelanggan dan maklumat jaminan
- Tempah janji temu, berikan maklumat lanjut atau laluan ke pusat hubungan
- Hantar pengesahan e-mel
Amazon Connect digunakan untuk mengumpul log suara dan sembang, dan Amazon Comprehend digunakan untuk mengalih keluar maklumat pengenalan peribadi (PII) daripada log ini. Perangkak Amazon Kendra kemudiannya boleh menggunakan log suara dan sembang yang disunting, skrip panggilan pelanggan dan dasar pelan sokongan perkhidmatan pelanggan untuk mencipta indeks. Setelah keputusan dibuat, bot perbualan AI generatif memutuskan sama ada untuk menempah janji temu, memberikan maklumat lanjut atau mengarahkan pelanggan ke pusat hubungan untuk mendapatkan bantuan lanjut. Untuk pengoptimuman kos, ejen LangChain juga boleh menjana jawapan menggunakan token yang lebih sedikit dan model bahasa besar yang lebih murah untuk pertanyaan pelanggan keutamaan yang lebih rendah.
Perkhidmatan kewangan
Syarikat perkhidmatan kewangan bergantung pada penggunaan maklumat yang tepat pada masanya untuk kekal berdaya saing dan mematuhi peraturan kewangan. Menggunakan bot perbualan AI generatif, penganalisis dan penasihat kewangan boleh berinteraksi dengan maklumat teks dalam cara perbualan dan mengurangkan masa dan usaha yang diperlukan untuk membuat keputusan termaklum yang lebih baik. Di luar pelaburan dan penyelidikan pasaran, bot perbualan AI generatif juga boleh menambah keupayaan manusia dengan mengendalikan tugas yang secara tradisinya memerlukan lebih banyak usaha dan masa manusia. Sebagai contoh, institusi kewangan yang mengkhusus dalam pinjaman peribadi boleh meningkatkan kadar di mana pinjaman diproses sambil memberikan ketelusan yang lebih baik kepada pelanggan.
Kes penggunaan khusus: Gunakan sejarah kewangan pelanggan dan permohonan pinjaman terdahulu untuk memutuskan dan menjelaskan keputusan pinjaman.
Langkah berikut menerangkan fungsi AWS Lambda dan alirannya melalui proses:
- Ejen LangChain untuk mengenal pasti niat
- Semak sejarah kewangan dan skor kredit pelanggan
- Semak sistem pengurusan perhubungan pelanggan dalaman
- Semak polisi pinjaman standard dan cadangkan keputusan untuk pekerja yang layak mendapat pinjaman
- Hantar pemberitahuan kepada pelanggan
Seni bina ini menggabungkan data kewangan pelanggan yang disimpan dalam pangkalan data dan data yang disimpan dalam alat pengurusan perhubungan pelanggan (CRM). Titik data ini digunakan untuk memaklumkan keputusan berdasarkan dasar pinjaman dalaman syarikat. Pelanggan boleh bertanya soalan yang menjelaskan untuk memahami pinjaman yang mereka layak dan syarat pinjaman yang mereka boleh terima. Jika bot perbualan AI generatif tidak dapat meluluskan permohonan pinjaman, pengguna masih boleh bertanya soalan tentang meningkatkan skor kredit atau pilihan pembiayaan alternatif.
Kerajaan
Bot perbualan AI Generatif boleh memberi manfaat besar kepada institusi kerajaan dengan mempercepatkan proses komunikasi, kecekapan dan membuat keputusan. Bot perbualan AI Generatif juga boleh menyediakan akses segera kepada pangkalan pengetahuan dalaman untuk membantu kakitangan kerajaan mendapatkan maklumat, dasar dan prosedur dengan cepat (iaitu, kriteria kelayakan, proses permohonan dan perkhidmatan serta sokongan rakyat). Satu penyelesaian ialah sistem interaktif, yang membolehkan pembayar cukai dan profesional cukai mencari butiran dan faedah berkaitan cukai dengan mudah. Ia boleh digunakan untuk memahami soalan pengguna, meringkaskan dokumen cukai dan memberikan jawapan yang jelas melalui perbualan interaktif.
Pengguna boleh bertanya soalan seperti:
- Bagaimanakah cukai warisan berfungsi dan apakah ambang cukai?
- Bolehkah anda menerangkan konsep cukai pendapatan?
- Apakah implikasi cukai apabila menjual hartanah kedua?
Selain itu, pengguna boleh mempunyai kemudahan untuk menyerahkan borang cukai kepada sistem, yang boleh membantu mengesahkan ketepatan maklumat yang diberikan.
Seni bina ini menggambarkan cara pengguna boleh memuat naik borang cukai yang lengkap kepada penyelesaian dan menggunakannya untuk pengesahan dan panduan interaktif tentang cara melengkapkan maklumat yang diperlukan dengan tepat.
Penjagaan kesihatan
Perniagaan penjagaan kesihatan berpeluang untuk mengautomasikan penggunaan sejumlah besar maklumat pesakit dalaman, sambil turut menangani soalan lazim berkenaan kes penggunaan seperti pilihan rawatan, tuntutan insurans, ujian klinikal dan penyelidikan farmaseutikal. Menggunakan bot perbualan AI generatif membolehkan penjanaan jawapan yang cepat dan tepat tentang maklumat kesihatan daripada pangkalan pengetahuan yang disediakan. Sebagai contoh, sesetengah profesional penjagaan kesihatan menghabiskan banyak masa mengisi borang untuk memfailkan tuntutan insurans.
Dalam tetapan yang sama, pentadbir dan penyelidik percubaan klinikal perlu mencari maklumat tentang pilihan rawatan. Bot perbualan AI generatif boleh menggunakan penyambung pra-bina dalam Amazon Kendra untuk mendapatkan maklumat yang paling relevan daripada berjuta-juta dokumen yang diterbitkan melalui penyelidikan berterusan yang dijalankan oleh syarikat farmaseutikal dan universiti.
Kes penggunaan khusus: Kurangkan kesilapan dan masa yang diperlukan untuk mengisi dan menghantar borang insurans.
Dalam rajah seni bina ini, seorang profesional penjagaan kesihatan dapat menggunakan bot perbualan AI generatif untuk mengetahui borang yang perlu diisi untuk insurans. Ejen LangChain kemudiannya boleh mendapatkan semula borang yang betul dan menambah maklumat yang diperlukan untuk pesakit serta memberi respons untuk bahagian deskriptif borang berdasarkan polisi insurans dan borang terdahulu. Pakar penjagaan kesihatan boleh mengedit respons yang diberikan oleh LLM sebelum meluluskan dan menghantar borang ke portal insurans.
Langkah berikut menerangkan fungsi AWS Lambda dan alirannya melalui proses:
- Ejen LangChain untuk mengenal pasti niat
- Dapatkan maklumat pesakit yang diperlukan
- Isi borang insurans berdasarkan maklumat pesakit dan garis panduan borang
- Hantar borang ke portal insurans selepas kelulusan pengguna
AWS HealthLake digunakan untuk menyimpan data kesihatan dengan selamat termasuk borang insurans terdahulu dan maklumat pesakit, dan Amazon Comprehend digunakan untuk mengalih keluar maklumat pengenalan peribadi (PII) daripada borang insurans sebelumnya. Perangkak Amazon Kendra kemudiannya boleh menggunakan set borang dan garis panduan insurans untuk mencipta indeks. Setelah borang diisi oleh AI generatif, maka borang yang disemak oleh profesional perubatan boleh dihantar ke portal insurans.
Anggaran kos
Kos untuk menggunakan penyelesaian asas sebagai bukti-konsep ditunjukkan dalam jadual berikut. Memandangkan penyelesaian asas dianggap sebagai bukti konsep, Edisi Pembangun Amazon Kendra telah digunakan sebagai pilihan kos rendah kerana beban kerja tidak akan dikeluarkan. Andaian kami untuk Edisi Pembangun Amazon Kendra ialah 730 jam aktif untuk bulan tersebut.
Untuk Amazon SageMaker, kami membuat andaian bahawa pelanggan akan menggunakan contoh ml.g4dn.2xlarge untuk inferens masa nyata, dengan satu titik akhir inferens bagi setiap kejadian. Anda boleh mendapatkan maklumat lanjut tentang harga Amazon SageMaker dan jenis contoh inferens yang tersedia di sini.
Perkhidmatan | Sumber Digunakan | Anggaran Kos Sebulan dalam USD |
AWS Amplify | 150 minit binaan 1 GB Data disampaikan 500,000 permintaan |
15.71 |
Gerbang API Amazon | 1M REST API Panggilan | 3.5 |
AWS Lambda | 1 Juta permintaan Tempoh 5 saat setiap permintaan Memori 2 GB diperuntukkan |
160.23 |
Amazon DynamoDB | 1 juta bacaan 1 juta tulisan Storan 100 GB |
26.38 |
Amazon Sagemaker | Inferens masa nyata dengan ml.g4dn.2xlarge | 676.8 |
Amazon Kendra | Edisi Pembangun dengan 730 jam/bulan 10,000 Dokumen diimbas 5,000 pertanyaan/hari |
821.25 |
. | . | Jumlah Kos: 1703.87 |
* Amazon Cognito mempunyai peringkat percuma 50,000 Pengguna Aktif Bulanan yang menggunakan Kumpulan Pengguna Cognito atau 50 Pengguna Aktif Bulanan yang menggunakan pembekal identiti SAML 2.0
Bersihkan
Untuk menjimatkan kos, padamkan semua sumber yang anda gunakan sebagai sebahagian daripada tutorial. Anda boleh memadam mana-mana titik akhir SageMaker yang mungkin anda buat melalui konsol SageMaker. Ingat, pemadaman indeks Amazon Kendra tidak mengalih keluar dokumen asal daripada storan anda.
Kesimpulan
Dalam siaran ini, kami menunjukkan kepada anda cara untuk memudahkan akses kepada maklumat dalaman dengan meringkaskan daripada berbilang repositori dalam masa nyata. Selepas perkembangan terkini LLM yang tersedia secara komersial, kemungkinan AI generatif telah menjadi lebih jelas. Dalam siaran ini, kami mempamerkan cara menggunakan perkhidmatan AWS untuk mencipta bot sembang tanpa pelayan yang menggunakan AI generatif untuk menjawab soalan. Pendekatan ini menggabungkan lapisan pengesahan dan pengesanan PII Amazon Comprehend untuk menapis sebarang maklumat sensitif yang diberikan dalam pertanyaan pengguna. Sama ada individu dalam penjagaan kesihatan yang memahami nuansa untuk memfailkan tuntutan insurans atau HR memahami peraturan khusus seluruh syarikat, terdapat pelbagai industri dan menegak yang boleh mendapat manfaat daripada pendekatan ini. Model asas Amazon SageMaker JumpStart ialah enjin di sebalik chatbot, manakala pendekatan pemadat konteks menggunakan teknik RAG digunakan untuk memastikan bahawa respons merujuk dokumen dalaman dengan lebih tepat.
Untuk mengetahui lebih lanjut tentang bekerja dengan AI generatif pada AWS, rujuk Mengumumkan Alat Baharu untuk Membina dengan AI Generatif pada AWS. Untuk panduan yang lebih mendalam tentang menggunakan teknik RAG dengan perkhidmatan AWS, rujuk Bina aplikasi AI Generatif ketepatan tinggi dengan pantas pada data perusahaan menggunakan Amazon Kendra, LangChain dan model bahasa besar. Memandangkan pendekatan dalam blog ini adalah LLM agnostik, mana-mana LLM boleh digunakan untuk inferens. Dalam siaran seterusnya, kami akan menggariskan cara untuk melaksanakan penyelesaian ini menggunakan Amazon Bedrock dan Amazon Titan LLM.
Mengenai Pengarang
Abhishek Maligehalli Shivalingaiah ialah Arkitek Penyelesaian Perkhidmatan AI Kanan di AWS. Dia bersemangat membina aplikasi menggunakan Generative AI, Amazon Kendra dan NLP. Beliau mempunyai pengalaman sekitar 10 tahun dalam membina penyelesaian Data & AI untuk mencipta nilai untuk pelanggan dan perusahaan. Dia juga telah membina chatbot (peribadi) untuk berseronok untuk menjawab soalan tentang kerjaya dan perjalanan profesionalnya. Di luar kerja, dia gemar membuat potret keluarga & rakan serta suka mencipta karya seni.
Medha Aiyah ialah Arkitek Penyelesaian Bersekutu di AWS, berpangkalan di Austin, Texas. Beliau baru-baru ini menamatkan pengajian dari Universiti Texas di Dallas pada Disember 2022 dengan Sarjana Sains dalam Sains Komputer dengan pengkhususan dalam Sistem Pintar yang memfokuskan pada AI/ML. Dia berminat untuk mengetahui lebih lanjut tentang AI/ML dan menggunakan perkhidmatan AWS untuk menemui penyelesaian yang boleh dimanfaatkan oleh pelanggan.
Hugo Tse ialah Arkitek Penyelesaian Bersekutu di AWS yang berpangkalan di Seattle, Washington. Beliau memegang ijazah Sarjana dalam Teknologi Maklumat dari Arizona State University dan ijazah sarjana muda dalam bidang Ekonomi dari University of Chicago. Beliau adalah ahli Persatuan Audit dan Kawalan Sistem Maklumat (ISACA) dan Konsortium Pensijilan Keselamatan Sistem Maklumat Antarabangsa (ISC)2. Dia seronok membantu pelanggan mendapat manfaat daripada teknologi.
Ayman Ishimwe ialah Arkitek Penyelesaian Bersekutu di AWS yang berpangkalan di Seattle, Washington. Beliau memegang ijazah Sarjana dalam Kejuruteraan Perisian dan IT dari Universiti Oakland. Beliau mempunyai pengalaman terdahulu dalam pembangunan perisian, khususnya dalam membina perkhidmatan mikro untuk aplikasi web yang diedarkan. Beliau bersemangat untuk membantu pelanggan membina penyelesaian yang teguh dan berskala pada perkhidmatan awan AWS mengikut amalan terbaik.
Shervin Suresh ialah Arkitek Penyelesaian Bersekutu di AWS yang berpangkalan di Austin, Texas. Beliau telah menamatkan pengajian dengan Sarjana Kejuruteraan Perisian dengan Tumpuan dalam Pengkomputeran Awan dan Maya serta Sarjana Muda dalam Kejuruteraan Komputer dari San Jose State University. Dia bersemangat untuk memanfaatkan teknologi untuk membantu meningkatkan kehidupan orang ramai dari semua latar belakang.
Tinggalkan pesanan