Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Translation chapter 0 #748

Closed
Closed
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
201 changes: 201 additions & 0 deletions chapters/rum/_toctree.yml
Original file line number Diff line number Diff line change
@@ -0,0 +1,201 @@
- title: 0. Configurare
sections:
- local: chapter0/1
title: Introducere

- title: 1. Transformer models
sections:
- local: chapter1/1
title: Introduction
- local: chapter1/2
title: Natural Language Processing
- local: chapter1/3
title: Transformers, what can they do?
- local: chapter1/4
title: How do Transformers work?
- local: chapter1/5
title: Encoder models
- local: chapter1/6
title: Decoder models
- local: chapter1/7
title: Sequence-to-sequence models
- local: chapter1/8
title: Bias and limitations
- local: chapter1/9
title: Summary
- local: chapter1/10
title: End-of-chapter quiz
quiz: 1

- title: 2. Using 🤗 Transformers
sections:
- local: chapter2/1
title: Introduction
- local: chapter2/2
title: Behind the pipeline
- local: chapter2/3
title: Models
- local: chapter2/4
title: Tokenizers
- local: chapter2/5
title: Handling multiple sequences
- local: chapter2/6
title: Putting it all together
- local: chapter2/7
title: Basic usage completed!
- local: chapter2/8
title: End-of-chapter quiz
quiz: 2

- title: 3. Fine-tuning a pretrained model
sections:
- local: chapter3/1
title: Introduction
- local: chapter3/2
title: Processing the data
- local: chapter3/3
title: Fine-tuning a model with the Trainer API or Keras
local_fw: { pt: chapter3/3, tf: chapter3/3_tf }
- local: chapter3/4
title: A full training
- local: chapter3/5
title: Fine-tuning, Check!
- local: chapter3/6
title: End-of-chapter quiz
quiz: 3

- title: 4. Sharing models and tokenizers
sections:
- local: chapter4/1
title: The Hugging Face Hub
- local: chapter4/2
title: Using pretrained models
- local: chapter4/3
title: Sharing pretrained models
- local: chapter4/4
title: Building a model card
- local: chapter4/5
title: Part 1 completed!
- local: chapter4/6
title: End-of-chapter quiz
quiz: 4

- title: 5. The 🤗 Datasets library
sections:
- local: chapter5/1
title: Introduction
- local: chapter5/2
title: What if my dataset isn't on the Hub?
- local: chapter5/3
title: Time to slice and dice
- local: chapter5/4
title: Big data? 🤗 Datasets to the rescue!
- local: chapter5/5
title: Creating your own dataset
- local: chapter5/6
title: Semantic search with FAISS
- local: chapter5/7
title: 🤗 Datasets, check!
- local: chapter5/8
title: End-of-chapter quiz
quiz: 5

- title: 6. The 🤗 Tokenizers library
sections:
- local: chapter6/1
title: Introduction
- local: chapter6/2
title: Training a new tokenizer from an old one
- local: chapter6/3
title: Fast tokenizers' special powers
- local: chapter6/3b
title: Fast tokenizers in the QA pipeline
- local: chapter6/4
title: Normalization and pre-tokenization
- local: chapter6/5
title: Byte-Pair Encoding tokenization
- local: chapter6/6
title: WordPiece tokenization
- local: chapter6/7
title: Unigram tokenization
- local: chapter6/8
title: Building a tokenizer, block by block
- local: chapter6/9
title: Tokenizers, check!
- local: chapter6/10
title: End-of-chapter quiz
quiz: 6

- title: 7. Main NLP tasks
sections:
- local: chapter7/1
title: Introduction
- local: chapter7/2
title: Token classification
- local: chapter7/3
title: Fine-tuning a masked language model
- local: chapter7/4
title: Translation
- local: chapter7/5
title: Summarization
- local: chapter7/6
title: Training a causal language model from scratch
- local: chapter7/7
title: Question answering
- local: chapter7/8
title: Mastering NLP
- local: chapter7/9
title: End-of-chapter quiz
quiz: 7

- title: 8. How to ask for help
sections:
- local: chapter8/1
title: Introduction
- local: chapter8/2
title: What to do when you get an error
- local: chapter8/3
title: Asking for help on the forums
- local: chapter8/4
title: Debugging the training pipeline
local_fw: { pt: chapter8/4, tf: chapter8/4_tf }
- local: chapter8/5
title: How to write a good issue
- local: chapter8/6
title: Part 2 completed!
- local: chapter8/7
title: End-of-chapter quiz
quiz: 8

- title: 9. Building and sharing demos
new: true
subtitle: I trained a model, but how can I show it off?
sections:
- local: chapter9/1
title: Introduction to Gradio
- local: chapter9/2
title: Building your first demo
- local: chapter9/3
title: Understanding the Interface class
- local: chapter9/4
title: Sharing demos with others
- local: chapter9/5
title: Integrations with the Hugging Face Hub
- local: chapter9/6
title: Advanced Interface features
- local: chapter9/7
title: Introduction to Blocks
- local: chapter9/8
title: Gradio, check!
- local: chapter9/9
title: End-of-chapter quiz
quiz: 9

- title: Course Events
sections:
- local: events/1
title: Live sessions and workshops
- local: events/2
title: Part 2 release event
- local: events/3
title: Gradio Blocks party
110 changes: 110 additions & 0 deletions chapters/rum/chapter0/1.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,110 @@
# Introducere[[introducere]]

Bun venit la cursul Hugging Face! Această introducere te va ghida în configurarea unui mediu de lucru. Dacă abia începi cursul, îți recomandăm să arunci o privire mai întâi asupra [Capitolului 1](/course/chapter1), apoi să te întorci și să îți configurezi mediul pentru a putea încerca singur codul.

Toate bibliotecile pe care le vom folosi în acest curs sunt disponibile ca pachete Python, așa că aici îți vom arăta cum să configurezi un mediu Python și să instalezi bibliotecile specifice de care ai nevoie.

Vom acoperi două moduri de a-ți configura mediul de lucru, folosind un notebook Colab sau un mediu virtual Python. Simte-te liber să alegi pe cel care ți se potrivește cel mai bine. Pentru începători, recomandăm cu tărie să începi folosind un notebook Colab.

Reține că nu vom acoperi sistemul Windows. Dacă folosești Windows, îți recomandăm să urmezi pașii folosind un notebook Colab. Dacă folosești o distribuție Linux sau macOS, poți folosi oricare dintre abordările descrise aici.

Majoritatea cursului se bazează pe faptul că ai un cont Hugging Face. Îți recomandăm să creezi unul acum: [crează un cont](https://huggingface.co/join).

## Folosind un notebook Google Colab[[folosind-un-notebook-google-colab]]

Folosirea unui notebook Colab este cea mai simplă configurare posibilă; deschide un notebook în browserul tău și începe imediat să codifici!

Dacă nu ești familiarizat cu Colab, îți recomandăm să începi urmând [introducerea](https://colab.research.google.com/notebooks/intro.ipynb). Colab îți permite să folosești hardware accelerat, cum ar fi GPU-uri sau TPU-uri, și este gratuit pentru sarcini mai mici.

Odată ce ești confortabil să te descurci în Colab, creează un nou notebook și începe cu configurarea:

<div class="flex justify-center">
<img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter0/new_colab.png" alt="Un notebook Colab gol" width="80%"/>
</div>

Următorul pas este să instalezi bibliotecile pe care le vom folosi în acest curs. Vom folosi `pip` pentru instalare, care este managerul de pachete pentru Python. În notebook-uri, poți rula comenzi de sistem prefațându-le cu caracterul `!`, așa că poți instala biblioteca 🤗 Transformers astfel:

```
!pip install transformers
```

Te poți asigura că pachetul a fost instalat corect importându-l în cadrul mediului tău Python:

```
import transformers
```

<div class="flex justify-center">
<img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter0/install.gif" alt="O animație care arată rezultatul celor două comenzi de mai sus: instalare și import" width="80%"/>
</div>

Aceasta instalează o versiune foarte ușoară a 🤗 Transformers. În special, nu sunt instalate cadre specifice de machine learning (cum ar fi PyTorch sau TensorFlow). Deoarece vom folosi multe caracteristici diferite ale bibliotecii, îți recomandăm să instalezi versiunea de dezvoltare, care vine cu toate dependențele necesare pentru cam orice caz de utilizare imaginabil:

```
!pip install transformers[sentencepiece]
```

Aceasta va dura puțin timp, dar apoi vei fi gata de drum pentru restul cursului!

## Folosind un mediu virtual Python[[folosind-un-mediu-virtual-python]]

Dacă preferi să folosești un mediu virtual Python, primul pas este să instalezi Python pe sistemul tău. Îți recomandăm să urmezi [această ghidare](https://realpython.com/installing-python/) pentru a începe.

Odată ce ai Python instalat, ar trebui să poți rula comenzi Python în terminalul tău. Poți începe rulând următoarea comandă pentru a te asigura că este instalat corect înainte de a trece la pașii următori: `python --version`. Aceasta ar trebui să arate versiunea Python disponibilă acum pe sistemul tău.

Când rulezi o comandă Python în terminalul tău, cum ar fi `python --version`, ar trebui să te gândești la programul care rulează comanda ta ca la „Python-ul principal” de pe sistemul tău. Îți recomandăm să păstrezi această instalare principală liberă de orice pachete și să o folosești pentru a crea medii separate pentru fiecare aplicație pe care lucrezi — în acest fel, fiecare aplicație poate avea propriile sale dependențe și pachete, și nu va trebui să te preocupi de problemele de compatibilitate potențiale cu alte aplicații.

În Python, acest lucru se face prin [*virtual environments*](https://docs.python.org/3/tutorial/venv.html), care sunt arbori de directoare autonome ce conțin fiecare o instalare Python cu o anumită versiune Python împreună cu toate pachetele de care are nevoie aplicația. Crearea unui astfel de mediu virtual poate fi realizată cu mai multe instrumente diferite, dar vom folosi pachetul oficial Python pentru acest scop, denumit [`venv`](https://docs.python.org/3/library/venv.html#module-venv).

În primul rând, creează directorul în care dorești ca aplicația ta să locuiască — de exemplu, ai putea dori să faci un nou director numit *transformers-course* în rădăcina directorului tău personal:

```
mkdir ~/transformers-course
cd ~/transformers-course
```

Din interiorul acestui director, creează un mediu virtual folosind modulul Python `venv`:

```
python -m venv .env
```

Acum ar trebui să ai un director numit *.env* în folderul tău altfel gol:

```
ls -a
```

```out
. .. .env
```

Poți să intri și să ieși din mediu folosind scripturile `activate` și `deactivate`:

```
# Activează mediul virtual
source .env/bin/activate

# Dezactivează virtual environment-ul
deactivate
```

Te poți asigura că environment-ul este activat rulând comanda `which python`: dacă aceasta indică către virtual environment, atunci l-ai activat cu succes!

```
which python
```

```out
/home/<user>/transformers-course/.env/bin/python
```

### Instalarea dependențelor[[instalarea-dependențelor]]

La fel ca în secțiunea anterioară despre utilizarea instanțelor Google Colab, acum va trebui să instalezi pachetele necesare pentru a continua. Din nou, poți instala versiunea de dezvoltator a 🤗 Transformers folosind managerul de pachete `pip`:

```
pip install "transformers[sentencepiece]"
```

Acum ești gata să începi!
Loading
Loading