Ce que l'IA peut vraiment automatiser en e-commerce
On entend beaucoup parler d'IA en théorie. Ce qui m'intéresse, c'est ce qui fonctionne en production. Voici les cas d'usage que j'ai déployés ou que je vois fonctionner réellement sur des boutiques e-commerce en 2026 :
Architecture technique : intégrer un LLM dans PrestaShop
L'intégration d'un LLM dans un workflow e-commerce suit toujours le même pattern : un déclencheur (événement PS, CRON, webhook) → une couche d'orchestration PHP → un appel API LLM → un traitement de la réponse → une action sur la base de données ou un service externe.
Appel API Claude depuis PHP
<?php
// Génération automatique de description produit
function generateProductDescription(array $product): string
{
$prompt = sprintf(
"Rédige une description produit e-commerce de 150 mots pour : %s.
Référence : %s. Matière : %s. Couleur : %s.
Ton : professionnel, orienté bénéfices client.
Inclus naturellement le nom du produit dans la description.
Ne commence pas par 'Découvrez' ou 'Bienvenue'.",
$product['name'],
$product['reference'],
$product['material'],
$product['color']
);
$response = Http::withHeaders([
'x-api-key' => $_ENV['ANTHROPIC_API_KEY'],
'anthropic-version' => '2023-06-01',
'content-type' => 'application/json',
])->post('https://api.anthropic.com/v1/messages', [
'model' => 'claude-sonnet-4-20250514',
'max_tokens' => 300,
'messages' => [
['role' => 'user', 'content' => $prompt]
],
]);
return $response->json('content.0.text');
}
// Déclenchement via hook PS lors de l'ajout d'un produit
public function hookActionProductAdd(array $params): void
{
$product = $params['object'];
if (empty($product->description_short)) {
$description = generateProductDescription([
'name' => $product->name[1],
'reference' => $product->reference,
'material' => $product->meta_keywords[1] ?? '',
'color' => '',
]);
$product->description_short = [1 => $description];
$product->save();
}
}Pattern RAG pour le SAV
Pour un agent SAV qui répond aux questions sur les commandes, l'architecture RAG (Retrieval Augmented Generation) est la bonne approche : on récupère d'abord les données de la commande du client depuis la BDD PrestaShop, puis on les injecte dans le contexte du LLM avant de lui demander de générer la réponse.
function handleCustomerQuery(int $customerId, string $query): string
{
// 1. Récupérer le contexte client depuis PS
$orders = Order::getCustomerOrders($customerId);
$lastOrder = $orders[0] ?? null;
$context = $lastOrder ? sprintf(
"Dernière commande : #%s du %s.
Statut : %s. Total : %s€.
Articles : %s.",
$lastOrder['reference'],
$lastOrder['date_add'],
$lastOrder['order_state'],
$lastOrder['total_paid'],
implode(', ', array_column($lastOrder['products'], 'product_name'))
) : "Aucune commande trouvée.";
// 2. Appel LLM avec contexte injecté
$systemPrompt = "Tu es l'assistant SAV de [Boutique]. Réponds uniquement
en te basant sur les données fournies. Sois concis et aidant.
Données client : " . $context;
return callLLM($systemPrompt, $query);
}Les limites à connaître
L'enthousiasme autour de l'IA en 2026 est légitime, mais certaines limites restent réelles :
- Hallucinations — un LLM peut inventer des informations. Pour tout ce qui touche aux données critiques (prix, stocks, statuts de commande), injectez toujours les données réelles dans le contexte plutôt que de laisser le modèle les déduire.
- Latence — un appel API LLM prend entre 500ms et 3s. Pour les workflows temps réel (page produit, panier), l'IA doit tourner en arrière-plan, pas en synchrone dans la requête HTTP.
- Coût — les APIs LLM ont un coût au token. Sur un catalogue de 10 000 produits, calculez le coût de génération avant de lancer. Claude Sonnet sur Anthropic est actuellement le meilleur rapport qualité/prix pour les use cases e-commerce.
- Qualité variable — la qualité du output dépend massivement du prompt. Un bon système de prompt engineering + validation humaine sur un échantillon est indispensable avant de passer à l'échelle.
Commencez par un cas d'usage à faible risque et ROI élevé : la génération de descriptions produit pour les nouvelles références. C'est mesurable, réversible, et le gain de temps est immédiat. Une fois ce workflow validé, vous aurez la confiance et l'architecture pour attaquer des automatisations plus complexes.
Outils et stack recommandés
- Anthropic Claude API — meilleur équilibre qualité/coût pour la génération de contenu e-commerce en français. Le modèle Sonnet est le sweet spot pour la production.
- n8n (self-hosted) — orchestrateur de workflows open source. Idéal pour connecter PrestaShop, les LLMs et vos autres outils sans écrire du code pour chaque connexion.
- Redis — file de messages pour les tâches IA asynchrones. Évite de bloquer les requêtes HTTP en attendant les réponses LLM.
- PHP + Guzzle — pour les intégrations directes dans PrestaShop, c'est la stack native. Pas besoin de Python sauf si vous faites du ML custom.
- Webhook.site — pour tester vos webhooks pendant le développement sans déployer.
Pour une agence marketing régionale, un pipeline d'automatisation connectant CMS, CRM et LLM a permis d'éliminer 26 heures de tâches manuelles par semaine. Le rapport hebdomadaire qui prenait 4 heures à un collaborateur est maintenant généré automatiquement chaque lundi matin.