paint-brush
Semua yang Kami Tahu Mengenai Pengoptimuman Segera Hari Ini oleh@textmodels
863 bacaan
863 bacaan

Semua yang Kami Tahu Mengenai Pengoptimuman Segera Hari Ini

Terlalu panjang; Untuk membaca

Bahagian ini meringkaskan pelbagai pendekatan dalam pengoptimuman segera, termasuk penalaan segera lembut, pengoptimuman diskret melalui carian berpandukan kecerunan dan teknik berasaskan edit. Ia membincangkan penggunaan model bahasa dalam menjana dan memperhalusi gesaan, membandingkan kaedah seperti APE dan APO, dan menyerlahkan penyepaduan maklum balas bahasa semula jadi untuk meningkatkan prestasi LLM. Kerja ini juga mencatatkan peranan model bahasa sebagai pengendali mutasi dan silang dalam algoritma evolusi, sambil menekankan pendekatan uniknya untuk mengoptimumkan gesaan tanpa latihan tambahan.
featured image - Semua yang Kami Tahu Mengenai Pengoptimuman Segera Hari Ini
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Pengarang:

(1) Chengrun Yang, Google DeepMind dan sumbangan Equal; (2) Xuezhi Wang, Google DeepMind; (3) Yifeng Lu, Google DeepMind; (4) Hanxiao Liu, Google DeepMind; (5) Quoc V. Le, Google DeepMind; (6) Denny Zhou, Google DeepMind; (7) Xinyun Chen, Google DeepMind dan sumbangan Equal.

Jadual Pautan

Abstrak dan 1. Pengenalan

2 Opro: Llm sebagai Pengoptimum dan 2.1 Kehendak Pengoptimuman oleh Llms

2.2 Reka Bentuk Meta-Prompt

3 Contoh Memotivasi: Pengoptimuman Matematik dan 3.1 Regresi Linear

3.2 Masalah Jurujual Perjalanan (TSP)

4 Aplikasi: Pengoptimuman Segera dan 4.1 Penyediaan Masalah

4.2 Reka Bentuk Meta-Prompt

5 Eksperimen Pengoptimuman Segera dan 5.1 Persediaan Penilaian

5.2 Keputusan Utama

5.3 Kajian Ablasi

5.4 Analisis Overfitting dalam Pengoptimuman Segera dan 5.5 Perbandingan dengan Evoprompt

6 Kerja Berkaitan

7 Kesimpulan, Pengakuan dan Rujukan

A Beberapa Kes Kegagalan

B Format Gesaan untuk Penjaring Llm

C Meta-Prompts dan C.1 Meta-Prompt untuk Pengoptimuman Matematik

C.2 Meta-Prompt untuk Pengoptimuman Segera

D Keluk Pengoptimuman Segera pada Tugasan Bbh yang Selebihnya

E Pengoptimuman Segera pada Tugasan Bbh – Ketepatan Jadual dan Arahan Ditemui

6 KERJA BERKAITAN

Pengoptimuman segera. Kerja-kerja terdahulu telah membangunkan kaedah penalaan segera lembut yang mengoptimumkan gesaan yang diwakili sebagai vektor berterusan khusus tugasan (Lester et al., 2021; Li & Liang, 2021; Liu et al., 2021; Qin & Eisner, 2021), serta sebagai melakukan pengoptimuman segera diskret oleh carian berpandukan kecerunan (Shin et al., 2020; Wen et al., 2023; Gao et al., 2020; Chen et al., 2023d) dan pembelajaran pengukuhan (Deng et al., 2022; Zhang et al., 2023). Pendekatan ini menjadi tidak boleh digunakan apabila hanya terdapat akses API kepada LLM. Kerja-kerja lain mereka bentuk pendekatan berasaskan suntingan untuk pengoptimuman segera tanpa kecerunan (Xu et al., 2022; Prasad et al., 2022), di mana penyuntingan boleh dilakukan dengan operasi takrif manusia (cth, menukar dua frasa) (Prasad et al. , 2022) atau model bahasa (cth, terjemahan belakang) (Xu et al., 2022). Beberapa kerja baru-baru ini menyiasat LLM untuk pengoptimuman segera (Zhou et al., 2022b; Pryzant et al., 2023; Xu et al., 2023). Khususnya, APE (Zhou et al., 2022b) mula-mula menggunakan LLM untuk menjana arahan awal. Selepas itu, APE memilih arahan teratas dengan ketepatan tertinggi, kemudian menggesa LLM dengan setiap arahan individu untuk menjana varian yang serupa secara semantik bagi arahan awal. APO (Pryzant et al., 2023) dalam setiap langkah mengarahkan LLM untuk menghasilkan maklum balas teks tentang cara mengemas kini arahan lama. Berbeza daripada pendekatan berasaskan edit, LLM pengoptimum dalam kerja kami secara langsung menjana arahan baharu pada setiap langkah pengoptimuman, dan LLM pengoptimum hanya diminta untuk meningkatkan ketepatan tugas tanpa perlu meniru arahan yang lalu. Berbanding dengan Zhou et al. (2022b) dan Pryzant et al. (2023), proses pengoptimuman kami menggabungkan arahan yang dijana masa lalu dengan markahnya dalam meta-prompt, membolehkan LLM pengoptimum menemui corak biasa arahan berkualiti tinggi.


Mendorong dengan maklum balas bahasa semula jadi. Barisan kerja baru-baru ini menyiasat pendekatan untuk meningkatkan prestasi LLM dengan mendorong dengan maklum balas bahasa semula jadi untuk menyemak semula output model, yang telah menunjukkan keberkesanan dalam mengurangkan output LLM yang berbahaya (Bai et al., 2022; Ganguli et al., 2023), meningkatkan penaakulan (Shinn et al., 2023; Madaan et al., 2023) dan prestasi penjanaan kod (Chen et al., 2023e; Olausson et al., 2023; Shinn et al., 2023; Chen et al., 2023b), aplikasi dialog (Nair et al., 2023; Madaan et al., 2023; Yuan et al., 2023), dan seterusnya (Kim et al., 2023; Wang et al., 2023). Secara khusus, Yuan et al. (2023) membangunkan rangka kerja manusia-dalam-gelung untuk memperoleh maklum balas peringkat sistem daripada koleksi maklum balas peringkat contoh, yang kemudiannya digunakan untuk memperhalusi data. Dalam kerja kami, LLM pengoptimum menggunakan trajektori pengoptimuman dalam gesaan, yang secara tersirat memerlukan LLM untuk meringkaskan ciri sepunya antara penyelesaian dengan skor yang serupa. Kami mempertimbangkan untuk memasukkan maklum balas bahasa semula jadi yang eksplisit tentang penyelesaian yang dijana untuk langkah pengoptimuman kemudian sebagai kerja masa hadapan.


Menala model bahasa untuk pengoptimuman. Beberapa kerja terdahulu menala atau menggesa model bahasa untuk berkelakuan sebagai pengendali mutasi dan silang dalam algoritma evolusi. Meyerson et al. (2023) menggunakan model bahasa dengan contoh beberapa gambar untuk mencadangkan persilangan evolusi pada tugas seperti penjanaan imej dan kod. Dalam Lehman et al. (2022), model bahasa besar yang dilatih mengenai penjanaan perbezaan kod digunakan sebagai pengendali mutasi, dan mereka seterusnya mereka bentuk kaedah penalaan halus untuk meningkatkan prestasi dalam domain Sodarace untuk simulasi robot. EvoPrompting (Chen et al., 2023a) menggunakan model bahasa yang besar untuk mengembangkan seni bina rangkaian saraf, di mana mereka menggabungkan carian evolusi dengan penalaan segera yang lembut. Berkenaan dengan mengambil trajektori sebagai input untuk pengoptimuman, OptFormer (Chen et al., 2022) melatih model pengubah pada koleksi besar data pengoptimuman hiperparameter. Sebaliknya, kerja kami melakukan pengoptimuman semata-mata dengan menggesa tanpa latihan tambahan.


Kertas kerja ini di bawah lesen CC0 1.0 DEED.


L O A D I N G
. . . comments & more!

About Author

Writings, Papers and Blogs on Text Models HackerNoon profile picture
Writings, Papers and Blogs on Text Models@textmodels
We publish the best academic papers on rule-based techniques, LLMs, & the generation of text that resembles human text.

GANTUNG TANDA

ARTIKEL INI DIBENTANGKAN DALAM...

바카라사이트 바카라사이트 온라인바카라