Skip to content

Commit

Permalink
Switch to English documentation
Browse files Browse the repository at this point in the history
  • Loading branch information
veit committed Oct 26, 2020
1 parent 9e60065 commit 5175154
Show file tree
Hide file tree
Showing 222 changed files with 5,376 additions and 5,731 deletions.
45 changes: 23 additions & 22 deletions README.rst
Original file line number Diff line number Diff line change
@@ -1,5 +1,5 @@
Schnelleinstieg
===============
Quick start
===========

|Contributors| |License| |Docs| |Pyup|

Expand All @@ -17,7 +17,7 @@ Schnelleinstieg
Installation
------------

#. Herunterladen und Auspacken:
#. Download and unpack:

.. code-block:: console
Expand All @@ -28,11 +28,11 @@ Installation
creating: jupyter-tutorial-master/
#. Pipenv installieren
#. Install Pipenv

Siehe :doc:`Pipenv installieren </productive/envs/pipenv/install>`
Pleas refer :doc:`Install Pipenv </productive/envs/pipenv/install>`

#. Python-Pakete installieren:
#. Install Python packages:

.. code-block:: console
Expand All @@ -46,8 +46,9 @@ Installation
Enabling notebook extension highlighter/highlighter...
- Validating: OK
#. Javascript- und CSS-Dateien der `Jupyter Notebook Extensions
<https://jupyter-contrib-nbextensions.readthedocs.io/>`_ installieren
#. Install the `Jupyter Notebook Extensions
<https://jupyter-contrib-nbextensions.readthedocs.io/>` Javascript and CSS
files:

.. code-block:: console
Expand All @@ -63,7 +64,7 @@ Installation
Enabling notebook extension latex_envs/latex_envs...
- Validating: OK
#. HTML-Dokumentation erstellen:
#. Create HTML documentation:

.. code-block:: console
Expand All @@ -72,17 +73,17 @@ Installation
$ bin/python -m pip install -r docs/constraints.txt
$ bin/sphinx-build -ab html docs/ docs/_build/
#. PDF erstellen:
#. Create a PDF:

Für die Erstellung von PDFs benötigt ihr weitere Pakete.
For the creation of a PDF file you need additional packages.

Für Debian/Ubuntu erhaltet ihr diese mit:
For Debian/Ubuntu you get this with:

.. code-block:: console
$ apt-get install texlive-latex-recommended texlive-latex-extra texlive-fonts-recommended latexmk
oder für macOS mit:
or for macOS with:

.. code-block:: console
Expand All @@ -95,7 +96,7 @@ Installation
mktexlsr: Updating /usr/local/texlive/2020/texmf-dist/ls-R...
mktexlsr: Done.
Anschließend könnt ihr ein PDF generieren mit:
Then you can generate a PDF with:

.. code-block:: console
Expand All @@ -106,9 +107,9 @@ Installation
Run 'make' in that directory to run these through (pdf)latex
Das PDF findet ihr anschließend in ``docs/_build/latex/jupytertutorial.pdf``.
You can find the PDF at ``docs/_build/latex/jupytertutorial.pdf``.

Folge uns
Follow us
---------

* `GitHub <https://github.com/veit/jupyter-tutorial>`_
Expand All @@ -118,9 +119,9 @@ Folge uns
Pull-Requests
-------------

Wenn ihr Vorschläge für Verbesserungen und Ergänzungen habt, empfehle ich euch,
einen `Fork <https://github.com/veit/jupyter-tutorial/fork>`_ meines
`GitHub-Repository <https://github.com/veit/jupyter-tutorial/>`_ zu erstellen
und darin eure Änderungen vorzunehmen. Gerne dürft ihr auch einen *Pull Request*
stellen. Sofern die darin enthaltenen Änderungen klein und atomar sind, schaue ich
mir eure Vorschläge gerne an.
If you have suggestions for improvements and additions, I recommend that you
create a `Fork <https://github.com/veit/jupyter-tutorial/fork>`_ of my `GitHub
Repository <https://github.com/veit/jupyter-tutorial/>`_ and make your changes
there. . You are also welcome to make a *pull request*. If the changes
contained therein are small and atomic, I’ll be happy to look at your
suggestions.
20 changes: 10 additions & 10 deletions docs/clean-prep/dask-pipeline.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -4,28 +4,28 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"# Dask-Pipeline"
"# Dask pipeline"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Beispiel: Tracking der Internationalen Raumstation mit Dask\n",
"## Example: Tracking the International Space Station with Dask\n",
"\n",
"In diesem Notebook werden wir zwei APIs verwenden:\n",
"In this notebook we will be using two APIs:\n",
"\n",
"1. [Google Maps Geocoder](https://developers.google.com/maps/documentation/geocoding/)\n",
"2. [Open Notify API for ISS location](http://api.open-notify.org/)\n",
"\n",
"Wir werden sie verwenden, um den ISS-Standort und die nächste Durchlaufzeit in Bezug auf eine Liste von Städten zu verfolgen. Um unsere Diagramme zu erstellen und Daten intelligent zu parallelisieren, verwenden wir Dask, insbesondere [Dask Delayed](http://dask.pydata.org/en/latest/delayed.html)."
"We will use them to keep track of the ISS location and next lead time in relation to a list of cities. To create our diagrams and intelligently parallelise data, we use Dask, especially [Dask Delayed](http://dask.pydata.org/en/latest/delayed.html)."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### 1. Importe"
"### 1. Imports"
]
},
{
Expand Down Expand Up @@ -67,9 +67,9 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"### 3. Latitude- und Longitude-Paare aus einer Liste von Städten\n",
"### 3. Latitude and longitude pairs from a list of cities\n",
"\n",
"s.a. [Location APIs](https://locationiq.org)"
"see also [Location APIs](https://locationiq.org)"
]
},
{
Expand Down Expand Up @@ -187,7 +187,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 4. ISS-Daten abrufen und Durchlaufzeiten der Städte ermitteln"
"## 4. Retrieve ISS data and determine lead times for cities"
]
},
{
Expand Down Expand Up @@ -309,7 +309,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 5. Erstellen einer `delayed`-Pipeline"
"## 5. Create a `delayed` pipeline"
]
},
{
Expand Down Expand Up @@ -353,7 +353,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 6. DAG anzeigen"
"## 6. Show DAG"
]
},
{
Expand Down
24 changes: 12 additions & 12 deletions docs/clean-prep/deduplicate.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -4,18 +4,18 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"# Daten deduplizieren\n",
"# Deduplicate data\n",
"\n",
"In diesem Notebook deduplizieren wir Daten mithilfe der [Dedupe](https://dedupe.readthedocs.io/en/latest/)-Bibliothek, die ein flaches neuronales Netzwerk verwendet, um aus einem kleinen Training zu lernen.\n",
"In this notebook, we deduplicate data using the [Dedupe](https://dedupe.readthedocs.io/en/latest/) library, which uses a flat neural network to learn from a small training session.\n",
"\n",
"Zudem haben dieselben Entwickler\\*innen [parserator](https://github.com/datamade/parserator) erstellt, mit dem Ihr Textfunktionen extrahieren und Eure eigenen Textextraktion trainieren könnt. "
"In addition, the same developers have created [parserator](https://github.com/datamade/parserator) with which you can extract text functions and train your own text extraction."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## 1. Importe"
"## 1. Imports"
]
},
{
Expand Down Expand Up @@ -43,7 +43,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 2. Datenqualität überprüfen"
"## 2. Check data quality"
]
},
{
Expand Down Expand Up @@ -231,9 +231,9 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 3. Dedupe konfigurieren\n",
"## 3. Configure Dedupe\n",
"\n",
"Nun definieren wir die Felder, auf die bei der Deduplizierung geachtet werden soll und erstellen ein neues `deduper`-Objekt:"
"Now we define the fields to be taken into account during deduplication and create a new `deduper` object:"
]
},
{
Expand Down Expand Up @@ -300,7 +300,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 4. Trainingsdaten erstellen"
"## 4. Create training data"
]
},
{
Expand All @@ -325,9 +325,9 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 5. Aktives Lernen\n",
"## 5. Active learning\n",
"\n",
"Wenn Dedupe ein Datensatzpaar findet, werdet Ihr gebeten, es als Duplikat zu kennzeichnen. Ihr könnt hierfürdie Tasten `y`, `n` und `u`, um Duplikate zu kennzeichnen. Drückt `f`, wenn Ihr fertig seid."
"If Dedupe finds a pair of records, you will be asked to mark it as a duplicate. You can do this using the `y`, `n` and `u` buttons to mark duplicates. Push `f` when you're done."
]
},
{
Expand Down Expand Up @@ -521,7 +521,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Wenn Ihr fertig seid, speichert Eure Trainingsdaten:"
"When you’re done, save your training data:"
]
},
{
Expand All @@ -538,7 +538,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"Speichert auch Eure Gewichte und Prädikate. Wenn `settings_file` bereits existiert, werden beim nächsten Durchlauf Training und aktives Lernen übersprungen:"
"Also save your weights and predicates. If `settings_file` already exists, training and active learning will be skipped in the next run:"
]
},
{
Expand Down
18 changes: 9 additions & 9 deletions docs/clean-prep/engarde.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -4,16 +4,16 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"# Pandas DataFrame-Validierung mit Engarde\n",
"# Pandas DataFrame validation with Engarde\n",
"\n",
"In diesem Notebook überprüfen wir `pandas.DataFrame`-Objekte mit der Bibliothek [engarde](https://github.com/TomAugspurger/engarde). Mit ihr könnt Ihr sowohl Decorators für Funktionen schreiben als auch integrierte Funktionen verwenden, um Euren DataFrame mit bestimmten Validierungsregeln oder -definitionen zu testen."
"In this notebook we check `pandas.DataFrame` objects with the [engarde](https://github.com/TomAugspurger/engarde) library. With it you can write decorators for functions as well as use built-in functions to test your DataFrame with certain validation rules or definitions."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## 1. Importe"
"## 1. Imports"
]
},
{
Expand All @@ -31,7 +31,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 2. Daten lesen"
"## 2. Read data"
]
},
{
Expand All @@ -47,7 +47,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 3. Daten überprüfen"
"## 3. Check data"
]
},
{
Expand Down Expand Up @@ -189,9 +189,9 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## Datentypen überprüfen\n",
"## Check data types\n",
"\n",
"Engarde lässt uns Datentypen nachverfolgen. In einer ersten Funktion sollten wir also unsere erwarteten Ergebnisse überpfüfen."
"Engarde lets us keep track of data types. So in a first function we should check our expected results."
]
},
{
Expand Down Expand Up @@ -258,9 +258,9 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 5. Entfernen ungenügender Daten\n",
"## 5. Remove insufficient data\n",
"\n",
"Um Daten von schlechter Qualität zu entfernen, entfernen wir zunächst Duplikate und fehlende Einträge."
"To remove data of poor quality, we first remove duplicates and missing entries."
]
},
{
Expand Down
14 changes: 7 additions & 7 deletions docs/clean-prep/hypothesis.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -4,16 +4,16 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"# Hypothesis: _Property_ -basiertes Testen\n",
"# Hypothesis: property based testing\n",
"\n",
"In diesem Notebook verwenden wir _Property_ -basierte Tests, um Probleme in unserem Code zu finden. [Hypothesis](https://hypothesis.readthedocs.io/en/latest/) ist eine Bibliothek, die Haskells [Quickcheck](https://hackage.haskell.org/package/QuickCheck) ähnelt. Später lernen wir sie zusammen mit anderen Testbibliotheken noch genauer kennen: [Hypothesis](https://jupyter-tutorial.readthedocs.io/de/latest/productive/testing/hypothesis.html). Hypothesis kann auch Mock-Objekte und Tests für Numpy-Datentypen bereitstellen."
"In this notebook we use property based tests to find problems in our code. [Hypothesis](https://hypothesis.readthedocs.io/en/latest/) is a library similar to Haskell’s [Quickcheck](https://hackage.haskell.org/package/QuickCheck). Later we will get to know it more closely together with other test libraries: [Hypothesis](../productive/testing/hypothesis.ipynb). Hypothesis can also provide mock objects and tests for Numpy data types."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## 1. Importe"
"## 1. Imports"
]
},
{
Expand All @@ -31,7 +31,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 2. Bereich finden"
"## 2. Find range"
]
},
{
Expand All @@ -48,7 +48,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 3. Test mit `strategies` und `given`"
"## 3. Test with `strategies` and `given`"
]
},
{
Expand Down Expand Up @@ -101,7 +101,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 3. Test korrigieren mit `>=`"
"## 3. Correct the test with `>=`"
]
},
{
Expand Down Expand Up @@ -130,7 +130,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"## 4. Gegen Reguläre Ausdrücke prüfen"
"## 4. Check against regular expressions"
]
},
{
Expand Down
Loading

0 comments on commit 5175154

Please sign in to comment.