Petite question : Est-il toujours intéressant de se lancer dans la médecine ? Je veux dire, devenir médecin c’est toujours intéressant ? J’aurais pu même rajouter ‘en France’ car j’ai l’impression que ça gagne beaucoup moins qu’avant et que surtout on est considéré par la populace et autres comme des moins que rien.