Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

add Arabic translation for docs #1140

Open
wants to merge 13 commits into
base: main
Choose a base branch
from
79 changes: 3 additions & 76 deletions (docs)/ar/docs/additional/page.mdx
Original file line number Diff line number Diff line change
@@ -1,77 +1,4 @@
export const metadata = {
sidebar_position: 3000,
title: "🛸 Additional Resources",
};

# 🛸 Additional Resources

## Interactive Tutorials

- [agents.blue](https://www.agents.blue/) - A free, guided tutorial on prompt engineering.

## Resources

- [Article on leaking Notion's prompts](https://lspace.swyx.io/p/reverse-prompt-eng)
- [A great article on applications](https://huyenchip.com/2023/04/11/llm-engineering.html)
<br />
- [A fantastic PE intro video](https://youtube.com/watch?v=dOxUroR57xs&feature=shares)
<br />
- [A very nice, short prompt engineering guide](https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-openai-api)
<br />
- [A great prompt engineering intro](https://humanloop.com/blog/prompt-engineering-101)
<br />
- [A nice collection of prompt engineering papers](https://github.com/dair-ai/Prompt-Engineering-Guide)
<br />
- [Many more prompt engineering papers](https://github.com/thunlp/PromptPapers)
<br />
- [CMU class on prompt engineering](https://youtu.be/5ef83Wljm-M)
<br />
- [How Copilot works](https://thakkarparth007.github.io/copilot-explorer/posts/copilot-internals.html)
<br />
- [A Beginners Guide to Prompt Writing by Zapier](https://zapier.com/blog/gpt-3-prompt/)
<br />
- [Awesome A-Z Prompt-Engineering Resources list](https://github.com/promptslab/Awesome-Prompt-Engineering)
<br />
- [500 ChatGPT prompt templates](https://www.notion.so/500-ChatGPT-Prompt-Templates-d9541e901b2b4e8f800e819bdc0256da)
<br />
- [Prompt base](https://promptbase.com/)
<br />
- [Prompt vibes](https://www.promptvibes.com/)
<br />
- [Prompt Hero](https://prompthero.com/)
- [Midjourney community showcase with prompts](https://www.midjourney.com/showcase/recent/)
<br />
- [Data Science Prompts](https://github.com/travistangvh/ChatGPT-Data-Science-Prompts.git)
- [ALL styles and references for midjourney](https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference)
<br />
- [Advanced Prompt Engineering](https://jamesbachini.com/advanced-midjourney-prompt-engineering/#midjourney-flags)
- [Ordinary people prompts](https://www.ordinarypeopleprompts.com/)

### GPT-3 Prompt Examples/Ideas

https://sharegpt.com<br />
https://www.learngpt.com<br />
https://chatgpt.getlaunchlist.com<br />
https://prompts.chat

## Facts

GPT-3 is _NOT_ deterministic: https://twitter.com/BorisMPower/status/1608522707372740609

## People to follow

I source significant content from these people.

[@chillzaza\_](https://mobile.twitter.com/chillzaza_) Prompt engineering, tools, toolbot<br />
[@mathemagic1an](https://mobile.twitter.com/mathemagic1an) Various prompting, PE,
GPT3 info<br />
[@goodside](https://twitter.com/goodside/status/1588247865503010816) Prompt Injection,
PE tooling<br />
[@hwchase17](https://twitter.com/hwchase17) Core dev of langchain<br />
[@omarsar0](https://twitter.com/omarsar0) DAIR AI lead

Also check accounts that I follow: https://twitter.com/learnprompting/following

## Even More

Check [open issues](https://github.com/trigaten/Learn_Prompting/issues) and [PRs](https://github.com/trigaten/Learn_Prompting/pulls) :)
sidebar_position: 40,
title: "🟢 ",
};
232 changes: 80 additions & 152 deletions (docs)/ar/docs/advanced_applications/mrkl/page.mdx
Original file line number Diff line number Diff line change
@@ -1,152 +1,80 @@
export const metadata = { sidebar_position: 2, title: "🟡 LLMs Using Tools" };

# 🟡 LLMs Using Tools

MRKL Systems(@karpas2022mrkl) (Modular Reasoning, Knowledge and Language, pronounced "miracle")
are a **neuro-symbolic architecture** that combine LLMs (neural computation) and external
tools like calculators (symbolic computation), to solve complex problems.

A MRKL system is composed of a set of modules (e.g. a calculator, weather API, database, etc.) and a router that decides how to 'route' incoming natural language queries to the appropriate module.

A simple example of a MRKL system is a LLM that can
use a calculator app. This is a single module system, where the LLM is the router.
When asked, `What is 100*100?`, the LLM can choose to
extract the numbers from the prompt, and then tell the MRKL System to use a calculator
app to compute the result. This might look like the following:

<pre>
<p>What is 100*100?</p>

<span className="bluegreen-highlight">CALCULATOR[100*100]</span>
</pre>

The MRKL system would see the word `CALCULATOR` and plug `100*100` into the calculator app.
This simple idea can easily be expanded to various symbolic computing tools.

Consider the following additional examples of applications:

- A chatbot that is able to respond to questions about a financial database by
extracting information to form a SQL query from a users' text.

<pre>
<p>What is the price of Apple stock right now?</p>

<span className="bluegreen-highlight">
The current price is DATABASE[SELECT price FROM stock WHERE company =
"Apple" AND time = "now"].
</span>
</pre>

- A chatbot that is able to respond to questions about the weather by extracting
information from the prompt and using a weather API to retrieve the information.

<pre>
<p>What is the weather like in New York?</p>

<span className="bluegreen-highlight">
The weather is WEATHER_API[New York].
</span>
</pre>

- Or even much more complex tasks that depend on multiple datasources, such as the
following:

<div style={{ textAlign: "center" }}>
<Image
src="/docs/assets/advanced/mrkl_task.webp"
width={1600}
height={1331}
style={{ width: "500px", margin: "auto" }}
/>
</div>

<div style={{ textAlign: "center" }}>Example MRKL System (AI21)</div>

## An Example

I have reproduced an example MRKL System from the original paper, using Dust.tt,
linked [here](https://dust.tt/w/ddebdfcdde/a/98bdd65cb7).
The system reads a math problem (e.g. `What is 20 times 5^6?`), extracts the numbers and the operations,
and reformats them for a calculator app (e.g. `20*5^6`). It then sends the reformatted equation
to Google's calculator app, and returns the result. Note that the original paper performs prompt tuning on the router (the LLM), but I do not in this example. Let's walk through how this works:

First, I made a simple dataset in the Dust `Datasets` tab.

<div style={{ textAlign: "center" }}>
<Image
src="/docs/assets/advanced/mrkl/dataset.webp"
width={2818}
height={820}
style={{ width: "750px", margin: "0" }}
/>
</div>

Then, I switched to the `Specification` tab and loaded the dataset using an `input` block.

<div style={{ textAlign: "center" }}>
<Image
src="/docs/assets/advanced/mrkl/load_dataset.webp"
width={2790}
height={508}
style={{ width: "750px", margin: "0" }}
/>
</div>

Next, I created a `llm` block that extracts the numbers and operations. Notice how
in the prompt I told it we would be using Google's calculator. The model I use (GPT-3)
likely has some knowledge of Google's calculator from pretraining.

<div style={{ textAlign: "center" }}>
<Image
src="/docs/assets/advanced/mrkl/model.webp"
width={2790}
height={960}
style={{ width: "750px", margin: "0" }}
/>
</div>

Then, I made a `code` block, which runs some simple javascript code to remove
spaces from the completion.

<div style={{ textAlign: "center" }}>
<Image
src="/docs/assets/advanced/mrkl/extract.webp"
width={2790}
height={532}
style={{ width: "750px", margin: "0" }}
/>
</div>

Finally, I made a `search` block that sends the reformatted equation to Google's calculator.

<div style={{ textAlign: "center" }}>
<Image
src="/docs/assets/advanced/mrkl/search.webp"
width={2790}
height={1310}
style={{ width: "750px", margin: "0" }}
/>
</div>

Below we can see the final results, which are all correct!

<div style={{ textAlign: "center" }}>
<Image
src="/docs/assets/advanced/mrkl/final.webp"
width={2784}
height={494}
style={{ width: "750px", margin: "0" }}
/>
</div>

Feel free to clone and experiment with this playground [here](https://dust.tt/w/ddebdfcdde/a/98bdd65cb7).

## Notes

MRKL was developed by [AI21](https://www.ai21.com/) and originally used their
J-1 (Jurassic 1)(@lieberjurassic) LLM.

## More

See [this example](https://python.langchain.com/docs/modules/agents/how_to/mrkl) of a MRKL System
built with LangChain.
export const metadata = {
sidebar_position: 40,
title: "🟢 استخدام نماذج اللغات الكبيرة للأدوات المتنوّعة",
};

# استخدام نماذج اللغات الكبيرة للأدوات المتنوّعة

أنظمة (MRKL) أو (التفكير المنطقي للنماذج والمعرفة واللغة، تنطق "miracle" أي معجزة) هي بنيةٌ عصبيّة رمزية تجمع بين نماذج اللغات الكبيرة (الحساب العصبيّ neural computation)، والأدوات الخارجيّة مثل الآلات الحاسبة (الحساب الرّمزي symbolic computation)، لحلّ المسائل المعقّدة.

يتألف نظام MRKL من مجموعةٍ من النماذج (كالآلة الحاسبة، واجهة برمجية API للطقس، قاعدة البيانات، إلخ…) وموجّه يحدد توجيه تعليمات اللغة الطبيعيّة إلى النموذج المناسب.

مثالٌ بسيط على نظام MRKL هو نماذج اللغات الكبيرة القادرة على استخدام الآلة الحاسبة. وهذا نظام ذو نموذجٍ وحيد، حيث يكون النموذج بحدّ ذاته الموجّه. وعندما نسأله، ما هو ناتج 100*100؟ سيختار نموذج اللغات الكبيرة أن يستخرج الأرقام من التعليمة ومن ثمّ أمر نظام MRK: باستخدام الآلة الحاسبة للحصول على الناتج. وقد يبدو ذلك كالتالي:

**التعليمة**
```
ما هو ناتج 100*100؟
الحاسبة [100*100]
```
بالإنجليزية:
```
What is 100*100?
CALCULATOR[100*100]
```
سيرى نظام MRKL كلمة "CALCULATOR" ويضيف 100*100 إلى تطبيق الآلة الحاسبة. وهذه الفكرة البسيطة يمكن أن تتوسع إلى العديد من أدوات الحساب الرّمزيّة.

لنضع بعين الاعتبار هذه الأمثلة كتطبيقاتٍ إضافيّة:
* بوت محادثة قادر على الإجابة على الأسئلة المتعلّقة بالبيانات الماليّة من خلال استخراج المعلومات اللازمة من النص المرسل من قبل المستخدم.

**التعليمة**
```
ما هو سعر السهم الربحي لشركة آبل الآن؟
السعر الحاليّ هو قاعدة البيانات[اختر سعر من سهم حيث شركة = "آبل" و الوقت = "الآن"].
```
بالإنجليزية:
```
What is the price of Apple stock right now?

The current price is DATABASE[SELECT price FROM stock WHERE company = "Apple" AND time = "now"].
```

* بوت دردشة قادر على الإجابة عن أسئلة متعلّقة بحالة الطّقس من خلال استخراج المعلومات من التعليمة واستخدام واجهة برمجية للطقس لتقديم المعلومة الصحيحة.

**التعليمة**
```
كيف هو حال الطّقس في نيويورك؟
حال الطقس هو WEATHER_API[New York]‎.
```
بالإنجليزية:
```
What is the weather like in New York?

The weather is WEATHER_API[New York].
```

* أو مهاماً أكثر تعقيداً تعتمد على عدّة مصادر للبيانات مثل المثال التالي:
[Example MRKL System (AI21)](https://learnprompting.org/assets/images/mrkl_task-1c49ad5b95a103a61a1a09323675d9b2.webp)

## مثال
قمت بإنتاج مثالٍ على نظام MRKL من البحث الأصلي، بالاعتماد على dust.tt، ويمكنك أن تجده [هنا](https://dust.tt/w/ddebdfcdde/a/98bdd65cb7). يقرأ النّظام المسألة الرّياضيّة (كمثال: ما هو ناتج 20 ضرب 5^6؟)، يستخرج الأرقام والعمليّة ويعيد تشكيلها لتطبيق الآلة الحاسبة (20*5^6). ثم يرسل العملية العماد تشكيلها إلى تطبيق الآلة الحاسبة الخاص بغوغل، ويعود مع الناتج. لاحظ أن البحث الأساسيّ يؤدّي تعليمةً مرتبطةً بالموجّه (نموذج اللغات الكبيرة)، ولكنني لا أعتمد على هذا الأسلوب في هذا المثال. والآن لنتتبّع العملية خطوةً بخطوة:

بدايةً، أنشأت قاعدة بياناتٍ بسيطة في لوحة تحكم Dust Database.
![مثال1 على MRKL](https://learnprompting.org/assets/images/dataset-88e1813bfa8d586a159e2c9032c0f2a2.webp)

ثمّ بدّلت إلى لوحة تحكّمٍ متخصّصة ورفعت جميع البيانات اعتماداً على كتلة دخل.
![مثال2 على MRKL](https://learnprompting.org/assets/images/load_dataset-415700ff19804d1e387bf3ebaf9c0af4.webp)
بعدها، أنشأت نموذجاً متعدّد اللغات يستخرج الأرقام والعمليات. ولاحظ أنتي طلبت منه الاعتماد على تطبيق الآلة الحاسبة الخاص بغوغل في التعليمة. والنموذج الذي أستخدمه GPT-3 يمتلك بعض العملومات عن حاسبة غوغل مسبقاً.
![مثال3 على MRKL](https://learnprompting.org/assets/images/model-a685c56be44600a60767adb710c6c430.webp)
ثمّ، أنشأت كتلة شيفرات برمجيّة، تنفّذ شيفرات برمجية خاصة بلغة Javascript لإزالة الفراغات من الإجابة.
![مثال4 على MRKL](https://learnprompting.org/assets/images/extract-bd0bfa308aa57625dc73a6e6467023f1.webp)
وأخيراً، صنعت كتلة بحثٍ يرسل المعادلة إلى حاسبة غوغل.
![مثال5 على MRKL](https://learnprompting.org/assets/images/search-9df707812e09d8b6a51a94ab2cdd2a1c.webp)
ستجد أدناه النتائج النهائية، وجميعها صحيحة!
![مثال6 على MRKL](https://learnprompting.org/assets/images/final-67fa70546790171e13cbdd86dc886039.webp)
يمكنك أن تجرّب النموذج بسهولةٍ [هنا](https://dust.tt/w/ddebdfcdde/a/98bdd65cb7).

> ملاحظة: تمّ تطوير نظام MRKL من قِبل AI21 وتمّ استخدامه بشكلٍ مبدئي لأجل نموذج اللغات الكبيرة (J-1 (Jurassic1.

## المزيد

تفحّص [هذا المثال](https://python.langchain.com/docs/modules/agents/how_to/mrkl) لنظام MRKL التالي المبنيّ اعتماداً على LangChain.
12 changes: 6 additions & 6 deletions (docs)/ar/docs/advanced_applications/overview/page.mdx
Original file line number Diff line number Diff line change
@@ -1,8 +1,8 @@
export const metadata = { sidebar_position: 1, title: "🟢 Introduction" };
export const metadata = {
sidebar_position: 40,
title: "🟢 مقدّمة",
};

# 🟢 Introduction
# مقدّمة

We have seen a number of prompting/prompt engineering methods thus far.
Now we will cover some advanced applications of prompting that can solve
complex reasoning tasks by performing searches for information via the internet,
or other external sources.
لقد تعرّفنا على عددٍ من طرق هندسة التعليمات المختلفة حتّى اللحظة. والآن سنغطّي مجموعةً من التطبيقات المتقدّمة لهذه التعليمات التي يمكن أن تحلّ مسائل ومهمّاتٍ معقّدة من خلال البحث عن معلومات عبر الإنترنت، أو أيّ مصدرٍ خارجيٍّ آخر.
Loading