Künstliche Intelligenz
Was ist das Problem mit ChatGPT im Contact Center?
By Ben Rigby
0 Minuten Lesezeit
Untersuchung der ethischen Bedenken von ChatGPT im Contact Center.
I’ve been writing feverishly lately about the opportunity ChatGPT (and other generative AI systems) presents for the contact center. At Talkdesk, we believe that the generative pre-trained transformer (GPT) large language models (LLMs) powering systems like ChatGPT are going to be the backbone of the next generation of contact centers as a service (CCaaS).
We’ve launched our first feature that harnesses these capabilities to automatically summarize customer conversations and accurately select their dispositions (e.g., requests follow-up, wants to cancel service, etc.)—effectively eliminating most of a customer service agent’s after call work. And we are actively integrating these LLMs into other core contact center use cases, as well as shaping our roadmap to accelerate the value our customers can gain from these natural language processing techniques.
Aber wir verstehen auch das Ausmaß dieser neuen Technologie und das Potenzial, das sie sowohl schaden als auch nützen kann.
A number of prominent tech leaders—including Elon Musk, Steve Wozniak, and Andrew Yang—are publicly calling for a pause in the training of AI systems more powerful than ChatGPT-4. Their general ethical concern is that runaway AI will overtake humanity’s ability to harness it for good.
Da sich diese großen Namen zu einigen negativen Aspekten von KI-Systemen äußern, dachte ich, dass es ein guter Zeitpunkt wäre, einige der wichtigsten ethischen Bedenken dieser neuen LLMs für das Contact Center darzulegen. Jedes Unternehmen, das den Einsatz dieser KI-Modelle in seinem Contact Center in Betracht zieht, sollte sich der potenziellen Fallstricke bewusst sein und Prozesse in Betracht ziehen, die dazu beitragen, sichere und positive Kundenerlebnisse zu gewährleisten.
Möchten Sie mehr erfahren?
Kontaktieren Sie unser Team, um zu erfahren, wie Talkdesk Ihre Callcenter-Softwarelösungen verbessern kann.
Fünf ethische Bedenken von ChatGPT im Contact Center.
1. Transparenz.
The first ethical concern with using ChatGPT and other generative AI systems in the contact center is transparency, which applies both to being clear about how an AI-driven decision was made as well as the fact that it was made by AI in the first place. Customers have the right to know if their interaction was mediated by AI. If customers believe they are talking to a human and later discover that they were talking to a chatbot, for example, it could erode trust in the company and damage customer relationships with the brand. Full disclosure to the customer is crucial when designing chatbots and virtual agents.
2. Voreingenommenheit.
Another ethical concern is the potential for bias in the responses of chatbots and virtual agents. ChatGPT is a machine learning model that is trained on vast amounts of text data, and there is a risk that this data could be biased in some way. If, for example, an automatic quality review favors one pattern of speech over another, this could lead to unequal treatment of agents whose backgrounds included learning that pattern of speech. In other words, this type of bias can lead to discrimination.
3. Datensicherheit und Datenschutz.
When using ChatGPT, user interactions are logged and stored, and personal conversations could be accessible to anyone if proper security measures are not in place. As with any software system handling personally identifiable data, data flowing through the LLM needs to remain encrypted end to end and follow all of the data privacy considerations that keep customers’ data safe.
4. Wahrhaftige Ausgabe.
Ein weiteres ethisches Problem besteht darin, dass ChatGPT möglicherweise „halluziniert“ oder Antworten erfindet, die möglicherweise nicht der Wahrheit entsprechen, diese alternativen Fakten jedoch auf überzeugende Weise vermitteln. Natürlich möchten wir unseren Kunden keine Fehlinformationen geben, insbesondere wenn sie diese für ihre Lebensentscheidungen nutzen.
5. Arbeitsplatzverlagerung.
Finally, there is the concern of job displacement. As more companies turn to AI-based chatbots like ChatGPT, there is a risk that human contact center agents could lose their jobs. Companies must consider the impact that automation could have on their employees and take steps to mitigate any negative effects. In particular, contact center managers should imagine new opportunities to increase agent satisfaction by introducing tools that will automate menial tasks and help agents complete their work faster.
E-Book
ChatGPT und das Contact Center der Zukunft
Erfahren Sie, wie diese aufregende neue Technologie von Conversational AI bis hin zur Rolle von Contact Center-Agenten alles verändern wird.
Pause bei GPT-4?
Die Geschwindigkeit der jüngsten Fortschritte bei LLMs ist erstaunlich, und es bestehen berechtigte Bedenken, wie oben dargelegt. Die schnelle Entwicklung der KI ohne Sicherheitsvorkehrungen (zumindest die Berücksichtigung und Abmilderung der negativen Folgen) könnte dazu führen, dass diese negativen Folgen in einem viel größeren Ausmaß zum Tragen kommen, als sie bereits begonnen haben.
The Future of Life Institute (FLI)—the author of the open letter calling for a pause—wants to ensure that AI technology is developed in a way that benefits humanity and avoids potential risks and dangers. They are concerned that the major AI labs are in an “out-of-control” arms race, and currently, there is no proper oversight ensuring they are working in an ethical manner.
Wir werden diese Diskussionen sorgfältig verfolgen, da sie sich im Laufe der Zeit weiterentwickeln. Unsere Verpflichtung gegenüber unseren Kunden und den Millionen von Menschen, die täglich mit unseren Softwaresystemen interagieren, besteht jedoch darin, die Auswirkungen unserer Entscheidungen kontinuierlich anhand der oben dargelegten ethischen Überlegungen zu bewerten.
Ist die Verwendung von ChatGPT im Contact Center ethisch vertretbar?
In short, yes…with the appropriate precautions. For the LLM-powered features that we’ve already delivered to market and those we are developing, we at Talkdesk have already taken steps to minimize the potential ethical issues described above. We allow for transparent decision-making in the development process. We include modification by a human reviewer to remediate bias if it should exist. We maintain an absolute commitment to data privacy and security. We include anti-hallucination techniques in all our product designs to ensure no misinformation reaches our clients or their customers. And we give careful consideration to the impact of LLMs on human agents—with an eye toward imagining expanded roles for humans in the age of automation (I recently wrote about the concept of steering agents that oversee a team of bots).
Während LLMs die Servicequalität für die Millionen von uns verbessern werden, die Hilfe und Unterstützung von den Unternehmen suchen, die wir lieben, obliegt es den Softwareentwicklern, Designern und Produktführern unter uns, diese ethischen Bedenken beim Aufbau zu berücksichtigen und anzugehen.
Erfahren Sie, wie ChatGPT den Kundenservice revolutionieren wird.
Join me and Brooke Lynch, CCW Digital’s Senior Analyst, to learn how ChatGPT and generative AI is going to fundamentally change our understanding of customer service and the role of the contact center. In this conversation, I will explain why ChatGPT is so revolutionary and the impact it’s having on natural language processing. I will also share my vision of the role of the customer service agent in the era of generative AI. Watch the full webinar to see how ChatGPT is transforming customer service.
Finden Sie diese Informationen hilfreich?
Erfahren Sie noch mehr darüber, wie Talkdesk die Qualität Ihrer Kundenerlebnisse steigern kann.