@@ -38,7 +38,14 @@ Regarder bien les différents types de graphes ou de visualisation proposées oa
## Etape 3 : Créer un dash layout pour l'analyse d'opinions.
L'objectif maintnant est de créer avec dash un layout pour votre application d'analyse d'opinions. C'est une étape ouverte qui vous nécessitera de regarder la documentation sur cette bibliothèque avant de commencer à écrire votre code.
L'objectif maintenant est de créer avec dash un layout pour votre application d'analyse d'opinions. C'est une étape ouverte qui vous nécessitera de regarder la documentation sur cette bibliothèque avant de commencer à écrire votre code.
Nous vous conseillons donc de suivre la tutoriel de Dash avant de vous lancer dans ce travail [ici](https://dash.plot.ly/).
Nous allons maintenant utiliser une représentation sous forme de nuage de mots pour afficher le vocabulaire de nos tweets. Il s'agit de la fonctionnalité : [**Fonctionnalité 13** : Prise en main de WordCloud](./S6_wordcloud.md)
Nous allons utiliser [cette bibliothèque](https://github.com/amueller/word_cloud).
Les instructions pour son installation sont dans le [`README.md`](https://github.com/amueller/word_cloud/blob/master/README.md).
Installer cette bibliothèque et liser la documentation associée pour la prendre en main qui est [ici](https://amueller.github.io/word_cloud/).
Vous pouvez notamment regarder la [gallerie d'exemples](https://amueller.github.io/word_cloud/auto_examples/index.html) et pour chaque exemple, regarder le code associé pour une familiarisation avec cette bibliothèque.
Si vous pensez pouvoir l'utiliser, vous pouvez passer à la [**Fonctionnalité 14** : WordCloud sur votre ensemble de tweets](./S6_wordcloudtweet.md)
# Fonctionnalité 14 : WordCloud sur votre ensemble de tweets
Ici il s'agit d'appliquer une visualisation de type WordCloud sur un ensemble de tweets. Il s'agira donc d'afficher le vocabulaire, i.e. l'ensemble des mots uniques d 'un ensemble de tweets en essayant de prendre en compte leur fréquence.
Il faudra donc ici uttiliser les fonctionnalités de `pandas`, de `textblob` et de la bibliothèque précédente. Par exemple, vous pouvez vous inspirer de cet [exemple](https://amueller.github.io/word_cloud/auto_examples/frequency.html).
Petit rappel
+<spanstyle='color:blue'>Faire un commit dès que la réalisation d'une fonctionnalité ou d'une sous-fonctionnalité est finie.</span>
+<spanstyle='color:blue'>Tagger à la fin de chaque journée votre dernier commit </span>
+<spanstyle='color:blue'>Pousser (Push) votre code vers votre dépôt distant sur GitLab.</span>
+<spanstyle='color:blue'>Faire un test de couverture de code à la fin de chaque journée et de pousser le bilan obtenu vers votre dépôt distant sur GitLab.</span>
Nous pouvons maintenant passer à la dernière partie qui vise à mettre en place une chaine d'apprentissage pour l'analyse de sentiments dans des documents. Dans notre cas, on considérera que les tweets sont les documents.
@@ -54,10 +54,22 @@ Ce concept de MVP a été introduit par Eric Ries, l'auteur de [The Lean Startup
+**Sprint 6** : **Representing the word usages with [WordCloud](https://github.com/amueller/word_cloud)!**
+[**Fonctionnalité 13** : Prise en main de WordCloud](./S6_wordcloud.md)
+[**Fonctionnalité 14** : WordCloud sur votre ensemble de twwetss](./2048_S6_configgrille.md)
+[**Fonctionnalité 14** : WordCloud sur votre ensemble de tweets](./S6_wordcloudtweet.md)
### Objectif 3 : Ajout de l'analyse des sentiments par apprentissage (JOUR 4)
Vous devez maintenant avoir acquid un peu plus d'autonomie et donc pour cette fonctionnalité, nous vous invitons à lire un de nombreux tutoriels à ce sujet sur le web comme par exemple :
Lisez un de ces tutoriels et appliquez le. Il faudra essayer d'appliquer la méthodologie de découpage en sprints et fonctionnalités vue jusqu'alors avant de commencer à coder. Vous deposerez votre découpage sous la forme d'un fichier `.txt` sur votre dépôt git.