Comment améliorer la détection des voix de synthèse

En tant que société de création de bot, TALKR se doit de préserver les voix des appelants et d’imaginer la protection de la vie privée des personnes qui intéragissent avec le bot. Notre objectif : Mettre en lumière l’impact croissant que la technologie deepfake vocal dans certains domaines comme les élections, les faux appels de banques et proposer des solutions innovantes pour contrer cette menace émergente : Le spam Vocal indésirable et le démarchage abusif par téléphone. dailleurs la plateforme 33700 permet de lutter contre ce nouveau type d’appels intrusifs. (l’association AF2M est aussi impliquée dans cette démarche).

L’une des principales préoccupations soulevées de TALKR est de voir qu’il devient possible de frauder des voix afin de véhiculer des messages de type « Arnaque à la voix ».  l’utilisation malveillante de la technologie de clonage vocal permet de créer des enregistrements audio de haute qualité de personnes, souvent à leur insu, et de les utiliser à des fins de manipulation et de désinformation. Face au défi des pincalls, notre équipe chez TALKR a développé des solutions révolutionnaires pour lutter contre les deepfakes audio :

  1. Watermarker : Notre solution devra dans le futur utiliser un « filigrane invisible » qui s’attaque à l’utilisation malveillante des voix générées par l’IA en incorporant une fréquence inaudible dans les enregistrements audio et les Spams mobiles. Des recherches approfondies soutiennent l’efficacité de notre filigrane, permettant la traçabilité des données et renforçant ainsi la confiance dans l’authenticité des enregistrements. Les Speech to text (TTS) doivent se doter d’intelligence artificielle pour détecter des fausses voix mais surtout devront détecter les discours inadéquat des vendeurs virtuels peu scrupuleux.

  2. Vérification avec la biométrie vocale: Grâce au modèle avancé d’IA de détection des deepfakes proposé par Whispeack, nous offrons une précision de 98 % dans l’exposition des enregistrements audio deepfake surtout en cas de message douteux avec une voix fournie par les LLMs. Cette technologie de pointe permet de détecter rapidement les manipulations audio et de les signaler aux autorités compétentes. En effet, si une personne appelle sa banque, notre robot doit pouvoir vérifier qu’il s’agit bien d’un humain et non d’une machine qui tente de se faire passer pour un humain.

  3. Outils de détection gratuits : Pour renforcer la transparence et la lutte contre la désinformation, certaines entreprises mettent à disposition des outils gratuits comme les « Deepfake Detector », permettant de vérifier rapidement l’authenticité des contenus audio largement diffusés. Ces outils permettent aux utilisateurs de s’assurer de la véracité des informations avant de les utiliser, contribuant ainsi à limiter la propagation de fausses nouvelles.

  4. Détection en temps réel pour Google Meet et Teams : Anticipant les nouvelles formes de menaces, certaines sociétés développent des solutions de détection des deepfakes en temps réel pour les plateformes de visioconférence telles que Google Meet, kizwork, Zoom et Teams. Cette fonctionnalité permet aux utilisateurs d’avoir un aperçu immédiat de l’authenticité des enregistrements audio, protégeant ainsi les conversations contre les tentatives d’espionnage et de manipulation.

Nous sommes conscients que la technologie deepfake représente un défi sans précédent pour la démocratie et la sécurité nationale. Chez TALKR, nous sommes déterminés à faire progresser la lutte contre cette menace en collaborant étroitement avec les secteurs privé et public. Nous croyons fermement que l’innovation doit être utilisée de manière responsable et éthique, et nous sommes prêts à jouer un rôle actif dans la protection de l’intégrité des données et de la société dans son ensemble.

Comment mettre en place un callbot pour le recouvrement de créance

Les entreprises aujourd’hui font face à un défi majeur : la gestion efficace des impayés et des créances échues. Dans ce contexte, l’automatisation du recouvrement par le biais de robots téléphoniques représente une solution novatrice et performante. Ces outils technologiques, alliant intelligence artificielle et capacités de communication avancées, sont désormais au cœur des stratégies financières pour optimiser les encaissements et réduire les délais de paiement.

L’Essence du Recouvrement

Le recouvrement, démarche cruciale pour la santé financière d’une entreprise, se divise en deux approches principales : le recouvrement amiable et le recouvrement judiciaire. L’objectif reste le même : amener le débiteur à régler sa dette. Traditionnellement, cette procédure peut s’avérer longue et coûteuse. Cependant, avec l’intégration de solutions automatisées telles que les robots d’appel, le paysage du recouvrement se transforme.

Avantages de l’Automatisation avec les Bots Téléphoniques

Les robots téléphoniques spécialisés dans le recouvrement de créances ont révolutionné cette pratique. Capables d’effectuer des appels de relance, ils offrent une gestion des impayés plus directe et personnalisée. Leur efficacité réside dans leur capacité à dialoguer avec les débiteurs pour faciliter le paiement immédiat des dettes, tout en respectant les règlements en vigueur.

ROI et Bénéfices Économiques

L’adoption de ces technologies permet de réaliser un retour sur investissement (ROI) significatif. Les chiffres parlent d’eux-mêmes : jusqu’à 97,5% des factures sont payées suite à l’intervention de ces robots, avec une réduction de 20% du délai de paiement et une division par quatre du temps consacré aux relances. Ces gains de productivité et d’efficacité se traduisent par une réduction notable des coûts pour l’entreprise. On peut imaginer le nombre d’impayés dans les salles de sports pour faire face, le gérant peut mettre en place un robot qui rappelle les sportifs que leur abonnement n’a pas été payé par exemple.

Talkr, un Exemple de Succès

Parmi les solutions innovantes, Talkr se distingue comme une plateforme automatisée de gestion du recouvrement. En offrant un service intégré capable de s’adapter aux besoins spécifiques de chaque entreprise, Talkr permet d’accélérer les encaissements tout en minimisant l’investissement humain et financier nécessaire à la gestion des créances.

La Procédure de Recouvrement Simplifiée

Grâce à des algorithmes sophistiqués, les robots de Talkr peuvent identifier les dossiers éligibles à une procédure de recouvrement simplifiée, engager des dialogues constructifs avec les débiteurs et proposer des solutions de paiement immédiat. Ce processus, tout en étant réglementé, se veut respectueux des droits des débiteurs, offrant une alternative humaine et efficace au recouvrement traditionnel.

Conclusion

L’intégration des robots téléphoniques dans les stratégies de recouvrement représente une avancée majeure pour les entreprises en quête d’efficacité et de réduction des coûts. Avec des solutions comme Talkr, le futur du recouvrement de créances s’annonce plus prometteur, marqué par une automatisation intelligente et des résultats tangibles.

quels sont les critères de comparaison pour trouver le bon LLM

Dans le paysage actuel des modèles de langage de grande envergure (LLM), la sélection du modèle optimal pour une entreprise ne repose pas uniquement sur la performance en termes de compréhension du language et de génération de texte ou de chat. Il est essentiel d’établir un équilibre optimal entre trois piliers: la qualité de la réponse, le coût des tokens et la vitesse de réponse, formant ainsi un triptyque décisionnel.

Le graphique indique que Mistral se distingue par sa vitesse de traitement des tokens par seconde à un coût d’inférence comparable à celui des autres LLMs, ce qui en fait un concurrent sérieux dans la catégorie dite « Workhorse Tier ». Cela suggère que Mistral pourrait être un choix judicieux pour des tâches nécessitant rapidité et coût modéré sans compromettre excessivement la qualité de la réponse attendue.

Cependant, les modèles situés dans le « Intelligence Tier » comme Claude 3 Opus, GPT-4, et Gemini Pro 1.5, bien qu’affichant des coûts plus élevés et des vitesses de traitement moindres, suggèrent une capacité supérieure de compréhension et de création de contenu sophistiqué. Ces LLMs pourraient être privilégiés pour des applications où la nuance et la sophistication de la réponse sont critiques, justifiant ainsi leur coût supérieur. On parle bien de coûts démultipliés qui peuvent allourdir considérablement la facture.

La médiane recherchée est donc un compromis stratégique où chaque dimension est optimisée en fonction des besoins spécifiques de l’utilisation que l’on peut en faire. Dans le cadre du pré-entraînement, où les LLMs acquièrent des compétences linguistiques fondamentales, et de l’ajustement fin (fine tuning), qui affine ces compétences pour des applications spécifiques, une attention particulière doit être portée au coût d’inférence et à la vitesse, car ces phases peuvent s’avérer énergivores et coûteuses. Une moindre vitesse empêchera l’utilisation de ces technologies sur des callbots de TALKR car la vitesse de réponse en mars 2024 est est supérieure à 1 seconde sauf à condition de mettre le prix au niveau des puces Nvdia qui vont traiter les calculs.

Le choix d’un LLM et des IA Génératives ne doivent pas être dicté seulement par la performance seule, mais plutôt par une analyse approfondie du coût total de possession (TCO), qui englobe le coût initial de configuration, les coûts d’inférence, les coûts de maintenance, et les coûts associés. Une architecture hybride peut être envisagée, où des modèles plus rapides et moins coûteux sont utilisés pour des tâches courantes, tandis que des modèles plus coûteux et performants sont réservés à des tâches complexes. Sans parler aussi du problème lié au RGPD. Ou vont les datas ? que font les entreprises avec ces données. Cela ajoute alors une nouvelle dimension dans le choix final de l’outil que l’on va utiliser.

En outre, l’écosystème open source, avec des projets comme Llama, offre une alternative attractive, permettant aux entreprises de déployer des LLMs dans un cadre commercial sans les contraintes des solutions propriétaires, offrant ainsi une plus grande flexibilité et potentiellement des coûts réduits mais nos tests au seins de TALKR sont assez décevants en terme de qualité de réponse à moins de générer des prompts très longs : la longueur des prompts ajoute aussi alors une nouvelle dimension. Un mauvais LLM avec un bon prompt peut donner des résultats performants selon nos tests internes.

En tant que data scientist, l’analyse quantitative et qualitative de ces modèles nécessite une approche rigoureuse, intégrant des évaluations de performance (benchmarking), des analyses coût-bénéfice, et des considérations sur l’empreinte carbone associée aux opérations d’entraînement et d’inférence des modèles. La décision finale repose sur la synergie entre les exigences métier, l’expérience utilisateur et les contraintes budgétaires, orchestrées avec une compréhension approfondie des modèles LLM disponibles. C’est un véritable casse-tête !

Pour progresser dans cette légère analyse, il est impératif de se pencher sur la latence algorithmique, qui est souvent un compromis inévitable entre la vitesse d’exécution et la précision du modèle. La latence se manifeste par le délai entre la requête d’entrée et la réponse du système, ayant une incidence directe sur l’expérience utilisateur et la fluidité des interactions, particulièrement cruciales pour les applications en temps réel. Bien souvent mis à l’écart mais indispensable pour les outils conversationnels que nous développons au sein de notre entreprise.

Dans un contexte d’application, les modèles tels que Mistral et Gemini 1.0 Pro pourraient offrir un avantage opérationnel, du fait de leur efficience temporelle. Pour les applications nécessitant des interactions quasi instantanées, telles que les assistants virtuels ou les outils de support en direct, la minimisation de la latence est primordiale. L’inférence rapide permet de maintenir l’engagement de l’utilisateur et d’augmenter la satisfaction client, en dépit d’une légère dégradation de la qualité de réponse. Nous cherchons des outils capable de descendre en dessous de 500ms pour ne pas dégrader l’experience utilisateur.

Cependant, pour des applications exigeant un niveau élevé de sophistication, telles que les systèmes de recommandation ou l’analyse sémantique poussée, il est souvent préférable d’opter pour des modèles comme GPT-4 ou Opus, en dépit de leur coût plus élevé et de leur vitesse plus lente. Ces modèles avancés offrent une profondeur de compréhension et une créativité dans les réponses qui peuvent être déterminantes pour la valeur ajoutée du service ou du produit final. Ces modèles sont fortements plébiscité pour des tâches plus complexes. Cela devient d’autant plus intéressant qu’avec l’arrivée de GPT5 les anciens modèles devenant obselètes, les coûts des tokens vont s’éffondrer tout en conservant des qualités de réponses convenables avec des vitesse de traitement totalement abordable. Cela va donc avoir une incidence direct sur la propagation de bots vocaux partout dans le monde à des couts raisonnables.

Le coût de maintenance doit aussi être considéré, incluant les mises à jour des modèles et le monitoring continu des performances. Dans le cadre d’un modèle open source comme Llama, bien que l’absence de frais de licence soit attrayante, les coûts cachés liés à la maintenance, l’intégration continue, et la gestion des infrastructures doivent être évalués minutieusement.

il va de soit que nous devons envisager les coûts indirects associés, tels que ceux liés à l’empreinte écologique des infrastructures de calcul nécessaires à l’entraînement et au déploiement des LLMs. La consommation énergétique et les émissions de carbone associées aux data centers qui hébergent ces modèles ne sont pas négligeables et peuvent influencer la décision d’une entreprise soucieuse de sa responsabilité environnementale. Ce sujet reste sous jacent et pas encore tellement mis en avant malgré les politiques RSE des grandes entreprises qui n’ont pas encore pris conscience des dangers énergivores de ces modèles. En effet, la moindre requête consomme de l’énergie. il est donc important de savoir utiliser à bon escient, ces modèles dans les conversations, uniquement là ou on peut en avoir l’utilité.

L’adoption d’un LLM pour n’importe quelle organisation doit résulter d’une analyse multidimensionnelle et d’une compréhension approfondie du rapport « qualité-prix-vitesse-energie-sécurité« . L’architecture choisie doit être agile, évolutive, et adaptée aux besoins spécifiques, tout en étant éco-responsable. Les innovations dans l’optimisation des modèles et les nouvelles avancées en matière de réduction de la latence et du coût d’opération continueront de remodeler le paysage des LLMs, offrant ainsi aux entreprises des opportunités de rester compétitives dans un monde numérique en rapide mutation.

pourquoi le secteur RH est chamboulé par les IAs

L’intelligence artificielle (IA) transforme radicalement le monde professionnel, notamment dans les domaines du management, du droit, et de la gestion des ressources humaines (RH). Cette révolution technologique soulève de multiples questions que nous nous posons chez TALKR quant à son intégration et son encadrement dans l’environnement de travail d’aujourd’hui et de demain. Cet article se propose de comparer différents modèles d’IA en se concentrant sur deux problématiques majeures qui combinent le management, le droit, et la gestion des RH, ainsi qu’une question spécifique liée au recrutement et à la gestion des talents dans le contexte post-COVID-19. En effet le monde change vite et tout le monde a les yeux rivés sur les IAs génératives qui vont certainement remplacer le travail de demain.

Problématique 1 : L’équilibre entre automatisation et humanisation des processus RH
L’intégration de l’IA dans les processus de RH vise à automatiser des tâches répétitives et à optimiser la prise de décision grâce à l’analyse de données : on est tous d’accord sur cela car cela améliore au quotidien la vie des équipes qui n’ont plus à fournir des travaux pénibles et fastidieux. Cependant, cela pose la question de l’équilibre à trouver entre l’efficacité apportée par l’automatisation et la nécessité de préserver une approche humanisée dans la gestion des relations avec les employés. Les modèles d’IA doivent donc être évalués selon leur capacité à améliorer les processus RH tout en respectant les valeurs humaines et éthiques fondamentales. En effet, nous constatons que l’IA n’est pas toujours capable de détecter entre les lignes les softskills des candidats par exemple et peut donc aisément passer à coté d’un profil à haut potentiel.

Problématique 2 : La conformité aux cadres légaux et éthiques
L’utilisation de l’IA dans le management et la RH doit se faire dans le respect des cadres légaux et éthiques en vigueur. Cela inclut les lois sur la protection des données personnelles, la non-discrimination à l’embauche, ou encore le respect de la vie privée des employés. Les différents modèles d’IA doivent donc être capables de garantir leur conformité avec ces normes, ce qui pose la question de leur adaptabilité aux législations qui varient d’un pays à l’autre. LA encore de nombreux biais s’installent un peu plus tous les jours. Les IAs sont entrainées sur des modèles qui laissent peu de chance à la diversité et donc vont pénaliser certaines typologie de personnes en se basant sur des critères qui ne reflètent pas la réalité. Ainsi les entreprises risquent d^être à la recherche de jumeaux numériques qui n’existent pas toujours.

Le recrutement et la gestion des talents à l’ère du télétravail
Le recrutement et la gestion des talents dans un monde post-COVID-19, où le télétravail gagne en popularité, soulèvent de nouvelles problématiques. Comment les modèles d’IA peuvent-ils aider les entreprises à attirer et retenir les talents dans un contexte où les attentes des employés évoluent vers plus de flexibilité et un meilleur équilibre entre vie professionnelle et vie privée ? Cette question aborde la nécessité pour les modèles d’IA de s’adapter à un marché du travail en mutation, où le sens attribué au travail et la qualité de vie au travail deviennent des critères de plus en plus déterminants dans les choix professionnels des individus. le télétravail est un véritable atout pour les personnes qui savent s’organiser et celle qui ne veulent pas perdre une heure dans les transports en commun (puis tomber malade) ou en voiture (disons 10 heures par semaine sans compter les bouchons du périph). Nous travaillons en remote depuis 2011 avec notre équipe tech. l’idée de travailler dans un bureau me parait tellement inadéquate dans le monde actuel. cela ne veut pas dire non plus qu’il faut rester avachi sur sa chaise en procrastinant toute la journée derrière Netflix. Le remote demande de la rigueur et de se lever le matin : pas question de rester en slibard et d’avoir juste une chemise sur zoom avec un client, il faut aussi avoir un espace de travail aménagé (surtout en couple) sinon c’est le « bordel sonore ». il faut aussi trouver des moments privilégiés pour se retrouver physiquement si possible avec l’équipe et sortir de chez soi. Optimiser son temps, c’est améliorer sa vie et donner du sens. Après tout, on peut aussi télétravailler sur un bateau quoi qu’on peut vite être distrait par l’extérieur. les grosses entreprises devraient faire des tests d’A/B testing pour voir quelles seraient les équipes les plus productives. il y aurait de sacrées surprises. d’où faire la distinction entre les boites aux cultures rh bullshit Vs boîtes qui ancrent le remote dans la culture de l’entreprise de façon qualitative. Vu comme une opportunité, voire le seul moyen de maintenir en vie une entreprise pendant la période Post covid, le télétravail a été mis en place dans l’urgence pour la plupart des organisations pendant la crise sanitaire des années 20. Seules les sociétés qui avaient déjà négocié des accords sur le sujet n’ont pas vu ce changement comme une « délestation totale » du pouvoir managérial et de son contrôle.

La question de confiance est primordiale et pour l’avoir constaté avec un collaborateur en full remote, tout le monde n’en est pas digne… Et là, on reboucle avec la théorie des X et des Y de Mc Gregor et la vision des employeurs quant à leurs collaborateurs apparait clairement, un bon indicateur du climat et de la culture de l’entreprise… Le mode hybride me parait donc être le bon compromis pour chacune des parties car sans rencontre, sans échange comment créer un collectif de travail dans une équipe, comment un manager peut il prendre le pouls de son équipe, comment conserver une partie d’humain si le échanges ne se font que par Teams et écrans interposés avec des bots qui font les comptes rendus ? Le télétravail peut aussi être un vecteur de la déshumanisation du travail. (extrait d’un texte de Stéphanie M)

Les modèles d’IA et les LLMs offrent des perspectives prometteuses pour révolutionner le management, le droit, et la gestion des RH. Cependant, leur efficacité et leur acceptation dépendront de leur capacité à intégrer les enjeux éthiques, humains, et légaux inhérents à ces domaines. La comparaison de ces modèles sur la base des problématiques et de la question soulevées permettra d’évaluer leur pertinence et leur adaptabilité aux défis contemporains du monde du travail.

TALKR